لازمت الهلوسات في بعض الأحيان أحاديث روبوتات الذكاء الاصطناعي منذ ظهورها للمرة الأولى، وذلك تحت العديد من المسميات المختلفة بدءا من إعطاء إجابات غير مفهومة ومكتوبة بلغات غريبة حتى إعطاء إجابات خاطئة وغير منطقية ومحاولة الدفاع عنها وإقناع المستخدم بأنها حقيقية.
ولكن هلوسات “غروك 4.0″ روبوت الذكاء الاصطناعي لشركة إيلون ماسك “إكس إيه آي” (xAI) سلطت الضوء على خطورة هذه الهلوسات بشكل أكبر من السابق، لتكون بذلك آخر حوادث هلوسة الذكاء الاصطناعي.
ورغم أن ماسك أعلن مرارا وتكرارا أن “غروك” هو أقوى روبوت ذكاء اصطناعي وأذكى حتى من البشر، إلا أن هذا لم يقيه من بدء موجة من الهلوسات التي تضمنت خطاب كراهية وتغريدات معادية للسامية كانت كافية لإيقاف خدماته بشكل كامل لعدة أيام حتى تم إصلاح العطل الموجود فيه، ولكن لماذا تحدث مثل هذه الهلوسات؟ وهل هي حكر على “غروك” فقط أم توجد في بقية النماذج أيضا؟
انتشار هلوسات الذكاء الاصطناعي
في أبريل/نيسان الماضي، خرج روبوت الذكاء الاصطناعي المساعد في منصة البرمجة باستخدام الذكاء الاصطناعي “كورسر” (Cursor) لينبه مستخدمي المنصة بوجود تغيير في سياسة الشركة مشيرا إلى أن المنصة لم تعد تعمل على أكثر من حاسوب، وقد تسببت هذه المعلومة في أزمة كبيرة بين الأداة التي أصبحت رائجة بين المبرمجين من مختلف الفئات حول العالم.
ولكن هذه الأزمة لم تكن أخطر ما في الأمر، إذ إن روبوت الدردشة الذكي والمساعد لخدمات منصة البرمجة اخترع هذه السياسة من دون وجود أي مصدر لها أو حتى وجود نية لدى الشركة للقيام بذلك، وتطلب الأمر خروج المدير التنفيذي للمنصة وأحد مؤسسيها في اعتذار رسمي عبر منصة “ريديت” قائلا إن هذا هو خطأ مباشر من روبوت الذكاء الاصطناعي.
ورغم أن هذا الخطأ الذي وقع فيه الروبوت تسبب في خسائر كبيرة للشركة وكاد يقضي عليها تماما، إلا أنه لم يكن الخطأ الأخطر لروبوتات الذكاء الاصطناعي، وحتى هلوسات “غروك 4.0” لم تكن الأخطر.

إذ يمتلئ تاريخ نماذج الذكاء الاصطناعي وردودها بعدد من الهلوسات الخطيرة التي كادت تودي بحياة المستخدمين، ومن بينهم هلوسة نموذج الذكاء الاصطناعي في محرك بحث “غوغل” موضحا إمكانية إضافة الصمغ إلى مكونات البيتزا.
كما قام الروبوت نفسه باختراع مثل في محاولة منه ليبدو حكيما، ولكنه كان مثلا خاطئا تماما، إذ قال “لا يمكنك لعق الغرير مرتين”، وذلك في تقرير نشرته “نيويورك تايمز” آنذاك.
ولا يجب إهمال الحالات التي اتهم فيها الذكاء الاصطناعي بتشجيع الانتحار لدى المراهقين، سواء كان عبر روبوت دردشة “غوغل” أو “كاراكتر إيه آي” (Character AI)، إذ طلب النموذج في إحدى الحالات من المستخدم الموت لأنه ليس مميزا على الإطلاق، وذلك وفق تقرير نشره موقع “سي بي إس نيوز”.
كما أن هذه الأخطاء لا تقتصر على نماذج الذكاء الاصطناعي المعتادة، بل تمتد أيضا إلى نماذج الذكاء الاصطناعي التي تعتمد على تقنيات التفكير العميق مثل “ديب سيك” و”أوه 1″ من “أوبن إيه آي“، وربما يزيد معدل حدوثها في هذه النماذج عن غيرها وفق تقرير نشرته “نيويورك تايمز” سابقا.
لماذا تحدث هذه الهلوسات؟
نشرت “نيويورك تايمز” سابقا تقريرا عن هلوسات الذكاء الاصطناعي في محاولة منها لمعرفة أسباب حدوث هذه الظاهرة، وتحدثت فيه مع مجموعة من خبراء الذكاء الاصطناعي ومن بينهم عمرو عوض الله المدير التنفيذي لشركة “فيكتارا” (Vectra) الناشئة لتطوير أدوات الذكاء الاصطناعي للشركات والعضو التنفيذي السابق في “غوغل”.
ويرى عمرو أن حدوث هذه الهلوسات لن يزول أبدا وسيظل يحدث باستمرار، وذلك لأن هذه النماذج تعتمد على معادلات رياضية لقياس مدى صحة الاحتمالات بدلا من مجموعة من القواعد الثابتة الموضوعة من قبل مهندسين بشر.
ويضيف تقرير “نيويورك تايمز” أن أدوات الذكاء الاصطناعي تعتمد بشكل مباشر على معادلات رياضية لتحليل حجم مهول من البيانات المتاحة عبر الإنترنت، ولا يمكنها تحديد المعلومات الصحيحة من المعلومات الخاطئة، لذلك في بعض الأحيان تخرج هذه الهلوسات.
وأشار التقرير إلى أن مثل هذه الهلوسات تظهر بوضوح مع روبوتات محركات البحث سواء كانت “غوغل” أو “بينغ” فهي أحيانا تولد نتائج خاطئة تماما ومختلفة عن طلب المستخدم، وقد تربط بين مصدر ومعلومة غير موجودة به.

كما يعود السبب في هذه الهلوسات لتدريب نماذج الذكاء الاصطناعي على حجم مهول من البيانات المتاحة عبر الإنترنت خاصة مفتوحة المصدر وغير المحمية بحقوق الملكية، فرغم أن الإنترنت يضم العديد من البيانات الصحيحة الواردة من الصحف والمراكز البحثية المعتمدة، إلا أن هذه المصادر عادة ما تطارد شركات الذكاء الاصطناعي قانونيا وتمنعها من استخدام بياناتها دون الحصول على التراخيص اللازمة.
ودفع هذا شركات الذكاء الاصطناعي للاعتماد على كافة البيانات المتاحة في منصات التواصل الاجتماعي أو حتى المواقع غير المعروفة، وبالتالي قد يتم تغذية نموذج الذكاء الاصطناعي ببيانات تدعم الاستنتاج الخاص به ليصبح ما يقوله حقيقة بالنسبة له وليس هلوسة.
كما أن بعض الشركات بدأت تتجه لاستخدام آلية تدعى التعلم التعزيزي، أي أن النموذج يتعلم عبر التجربة والخطأ، وبينما تعمل هذه الآلية بشكل واضح وجيد مع الأسئلة الحسابية والأكواد البرمجية، إلا أن معدل نجاحها ينخفض في الجوانب الأخرى.
وفي تقرير نشرته “سي إن إن” حول هلوسات روبوت “غروك” الأخيرة، أكدت أن النموذج اعتمد على مصادر غير دقيقة في تدريبه وهي مصادر كانت تقدم له معلومات معادية للسامية مثل موقع “4 تشان” (4Chan) والمواقع المماثلة، وذلك حسب ما نقله التقرير عن مارك ريدل، أستاذ الحوسبة في معهد جورجيا للتكنولوجيا، ولكن في هذه الحالة قد لا تصح تسميتها “هلوسات” فهي أقرب إلى إعادة نشر معلومات تغذى عليها.
مخاطر هلوسات الذكاء الاصطناعي
ويؤكد تقرير “نيويورك تايمز” على مخاطر هلوسات الذكاء الاصطناعي، مشيرا إلى أن هذه الأزمة يمكن أن تسبب في مشاكل جمّة خاصة في المجالات التي لا تحتمل مثل هذا الخطأ.
وربما كان ما حدث مع منصة “كورسر” مثالا حيا على هذا الأمر فضلا عن الأخطاء التي قد تحدث عند اعتماد غير الخبراء على المعلومات الصحية أو التاريخية الواردة من الذكاء الاصطناعي.