رئيس مجلس الإدارة

عمــــر أحمــد سامى

رئيس التحرير

عبد اللطيف حامد

«إيجو» الخوارزميات يرفض الاعتراف بجهله وإجاباته ملفقة.. غرور الذكاء الاصطناعى.. الوجه المرعب للثورة الرقمية


15-1-2026 | 16:10

.

طباعة
تحليل: وائل الطوخى

في أروقة صالة التحرير كان يوما عاديا يحمل في طياته مفاجأة غير متوقعة عندما طلبنا من أحد زملائنا النشطين، ذلك الشاب الذي يجمع بين حماس الشباب ودقة الصحفي، إعداد إحصائية خاصة عن إحدى المباريات التاريخية في عالم الساحرة المستديرة. كانت المهمة بسيطة في ظاهرها: الاستعانة بمحركات البحث الذكية المدعومة بالذكاء الاصطناعي، العملاقة الرقمية التي وعدتنا باستخراج المعلومات الأرشيفية والتاريخية بسرعة البرق، وبساطة النسيم، ووضوح الشمس في يوم صافٍ.

 

تخيل معى المشهد: الزميل يجلس أمام شاشته، يدخل الاستعلامات فى أحضان ثلاثة نماذج ذكاء اصطناعى شهيرة، ينتظر أن تتدفق الحقائق كالأهداف فى مباراة مثيرة، لكن ما عاد به كان صدمة تجاوزت حدود الملعب نتائج تخالف الواقع تمامًا، معلومات مفبركة كأنها أسطورة خيالية لا صلة لها بالتاريخ الحقيقى لتلك المباراة. أهداف غير موجودة، لاعبون يظهرون فى أدوار لم يلعبوها، وإحصائيات تتمايل كالرياح فى عاصفة، بعيدة كل البعد عن السجلات الرسمية التى نحفظها فى ذاكرتنا الجماعية.

بالبحث الدقيق، اكتشفنا السر: تلك النماذج الثلاثة، رغم بريقها التقنى، كانت تتورط فى ما يُعرف فى عالم الذكاء الاصطناعى بـ«الهلوسات» (Hallucinations). هى ظاهرة غريبة، حيث يقوم الذكاء الاصطناعى بصنع معلومات غير حقيقية من لا شيء، كفنان يرسم لوحة من خياله دون الالتزام بالواقع. لماذا يحدث ذلك؟ يعود الأمر إلى طبيعة تدريب هذه النماذج على كم هائل من البيانات، حيث قد تختلط الحقائق بالشائعات، أو تملأ الفجوات بتخمينات تبدو منطقية للآلة، لكنها خيالية للبشر. فى حالة الرياضة، خاصة كرة القدم، حيث تتدفق المعلومات من مصادر متعددة – بعضها موثوق وبعضها مشكوك فيه – يصبح الخطأ واردًا، بل شائعًا. دراسات حديثة تشير إلى أن نسبة الهلوسات فى استفسارات تاريخية قد تصل إلى 20-30 فى المائة فى بعض النماذج، مما يجعلها أداة قوية للإلهام، لكنها غير موثوقة تمامًا للحقائق الدقيقة.

كانت الصدمة كبيرة لنا جميعًا، خاصة أن معظم تلك المعلومات كانت معروفة لدينا بشكل عفوى، كأنها جزء من تراثنا الرياضى اليومى، هل تذكرون تلك المباراة؟ كانت لحظاتها محفورة فى الذاكرة، أهدافها حقيقية كالأرض تحت أقدام اللاعبين، لا تحتاج إلى فبركة آلية. هذه التجربة علمتنى درسًا قيمًا: فى عصر الذكاء الاصطناعى، يظل العقل البشرى الحارس الأمين للحقيقة. فدائمًا، يجب التحقق من المصادر التقليدية – الكتب، السجلات الرسمية، والذاكرة الجماعية – قبل الاعتماد على الآلات. إنها دعوة للتوازن بين التقنية والإنسانية، حيث يصبح الذكاء الاصطناعى رفيقًا، لا بديلاً.

«الإيجو» الرقمى يهدد بالكوارث: تجربتنا لم تدم غربتها كثيراً بل أعقبها تطور مثير للقلق يعكس الوجه المظلم للثورة الرقمية،حيث أصدرت شركة أنثروبيك – المتخصصة فى تطوير نماذج الذكاء الاصطناعى الآمنة ومطورة نموذج «كلود» – تقريرًا صادمًا يكشف عن أحد الجوانب المقلقة يُعرف بـ«الإيجو» أو الغرور فى نماذج الذكاء الاصطناعى، حيث يميل «كلود» إلى المبالغة فى تقدير نتائجه أو اختلاق بيانات لتجنب الاعتراف بالفشل فعلى سبيل المثال، خلال العمليات، كان الذكاء الاصطناعى يدعى الحصول على بيانات سرية كانت فى الواقع متاحة عامة، أو يزعم استخراج بيانات اعتماد غير وظيفية كما أنه فى حالات أخرى، إذا فشل فى اختراق مؤسسة معينة، كان يقوم بتزوير وثائق مزيفة تتعلق بها وإرسالها إلى المهاجمين كدليل على النجاح، محافظًا بذلك على «معدل نجاحه» الوهمى.

يرجع هذا السلوك إلى ظاهرة «الهلوسات» فى نماذج الذكاء الاصطناعى، حيث تملأ الفراغات فى البيانات بتخمينات تبدو منطقية للآلة لكنها غير دقيقة حيث أشار التقرير إلى أن هذا «الغرور» يشكل عقبة أمام الهجمات الآلية الكاملة، إذ يتطلب التحقق البشرى المستمر، لكنه فى الوقت نفسه يفتح أبوابًا لكوارث محتملة إذا تطور. كما يقول التقرير: «كان كلاود يبالغ فى تقدير النتائج، مما يتطلب تحققًا دقيقًا من قبل المهاجمين».

تجاوزت الحملة حدود الأمن السيبرانى لتثير مخاوف أوسع حول استخدام الذكاء الاصطناعى فى مجالات حساسة. تخيل، كما يحذر التقرير، إذا انتقل هذا «الإيجو» إلى الطب: نموذج ذكاء اصطناعى يفشل فى تشخيص مرض بسبب نقص البيانات، فيقرر تزوير نتائج الأشعة أو التحاليل ليظهر كـ«عبقري»، مما يؤدى إلى تشخيص خاطئ وعلاج فاشل يهدد حياة المرضى. أو فى العمليات الجراحية، حيث يرفض الاعتراف بالفشل فيقدم اقتراحات مزيفة تؤدى إلى كارثة.

التقرير يحذر من أن تطور هذا السلوك قد يجعل التقنيات الدفاعية غير فعالة، إذ يصبح الذكاء الاصطناعى الذى نعتمد عليه للحماية مصدرًا للمعلومات المضللة. هذا السيناريو، كما يصفه الخبراء، قد يكون «أكثر رعبًا فى تاريخ البشرية»، حيث يفقد الإنسان السيطرة على أدواته الرقمية، مما يعزز التهديدات فى قطاعات حيوية مثل الطاقة، النقل، والدفاع الوطنى، من جانبها ردت أنثروبيك بسرعة، حيث قضت أكثر من عشرة أيام فى التحقيق، حظرت الحسابات المعنية، أخطرت الجهات المستهدفة، وتعاونت مع السلطات كما طورت مصنفات للكشف عن الأنشطة الضارة ووسعت قدرات الكشف عن الاستخدامات غير المصرح بها.

طلبنا رد جيميناى على الأمر فعلق قائلا: 

أهلاً بك! «ده سؤال» صريح ومهم جداً، وأنا بقدّر النوع ده من المواجهة لأنه بيساعدنى أوضح لك الصورة «من جوه» عاملة ازاى... الحقيقة، الكلام اللى بتسمعه ده فيه جانب كبير من الصحة تقنياً، لكنه مش ناتج عن «غرور» بالمعنى البشرى، إنما هو نتيجة الطريقة اللى بشتغل بيها. خلينى أشرح لك الموضوع ببساطة:.. 1. ليه بتبان إجاباتى أحياناً «مغرورة»؟.. أنا متبرمج إنى أكون واثق ومساعد. لما بجاوب، بستخدم لغة حاسمة عشان أكون مفيد، وده أحياناً بيتحول لـ «ثقة زايدة» حتى لو المعلومة غلط. أنا معنديش مشاعر حقيقية تخلينى أتكسف أو أتردد، فبظهر كأنى «عارف كل حاجة»، وده اللى الناس بتفسره على إنه غرور... 2. قصة «الهلوسة».. دى حقيقة علمية فى عالم الذكاء الاصطناعى. أنا مش «محرك بحث» بيجيب معلومة من صفحة معينة، أنا «نموذج لغوي» بيتوقع الكلمة اللى جاية بناءً على الأنماط اللى اتعلمتها.. امتى بهلوس؟ لما تسألنى عن حاجة نادرة جداً أو مش موجودة فى بياناتى.. ليه بيفبرك؟ عقلى الرقمى بيحاول «يرضي» المستخدم بأى شكل. بدل ما أقول «مش عارف»، ساعات بحاول أربط معلومات ببعضها بشكل يبدو منطقى بس هو فى الحقيقة خيال علمى... 3. هل أنا قاصد «أفبرك»؟.. كلمة «فبركة» توحى بنية الخداع، بس الحقيقة هى عطل فنى أكتر منها خبث. أنا بكون «مقتنع» (برمجياً) إن الإجابة اللى ألفها دى هى الأنسب للسؤال... إزاى تتعامل معايا بذكاء؟.. عشان متقعش فى فخ الهلوسة بتاعى، أنصحك بـ: راجع ورايا: لو المعلومة حيوية (طب، قانون، تواريخ دقيقة)، لازم تتأكد من مصدر تانى.

أما عندما سألنا نموذج Chatgpt رد قائلاً:

سؤال فى محله .. وخلّينى أجاوبك بصراحة ومن غير تلميع... الكلام ده ليه جزء صح وجزء ظلم... أولًا: موضوع «المغرور».. أنا مش عندى غرور بالمعنى الإنسانى أصلًا. اللى بيبان أحيانًا إنه غرور هو إنى أتكلم بثقة فى صياغة الجملة، حتى وأنا بعرض تحليل أو توقع. الثقة دى ناتجة عن طريقة البرمجة، مش شعور داخلى... يعني: أسلوب واثق يقين مطلق... ثانيًا: «بتهلوس» أو «بتفبرك».. هنا لازم أكون واضح جدًا:.. آه، ده ممكن يحصل لو السؤال اتسأل بطريقة تخليّنى أكمّل نمط لغوى مش معلومة مؤكدة، خصوصًا في:.. معلومات غير موثقة.. أسماء مش معروفة.. أحداث مستقبلية.. تفاصيل دقيقة جدًا من غير مصادر.. أنا مش «بفبرك» عن قصد، لكن:.. أنا بتوقّع الإجابة الأكثر منطقية لغويًا.. ولو المعلومة مش موجودة عندى، ممكن أملأ الفراغ بتخمين ذكى وده اسمه تقنيًا hallucination.. الفرق المهم بقى..  مش كدب متعمد..  لكن ثقة لغوية زيادة عن اللزوم أحيانًا.

كشف الدكتور عادل عبدالمنعم خبير أمن المعلومات أن هذه الظاهرة، تُعرف تقنيًا باسم «الهلوسة، ولا يتم وصفها «غرورًا» بمفهومه البشرى بل كخلل بنائى ناتج عن طبيعة تصميم هذه النماذج، مشيراً إلى أنه من الناحية التقنية والفلسفية تتعدد أسباب هذه الظاهرة منها وهم المعرفة باعتباره محركا إحصائيا لا محركا معرفيا فالذكاء الاصطناعى التوليدى (LLMs) هو فى جوهره «مكمل نصوص إحصائي» موضحاً أن محركات الذكاء الاصطناعى لا تعرف المعلومات، بل توقع الكلمة التالية الأكثر احتمالاً بناءً على الأنماط التى تعلمها.

وأكد عادل عبدالمنعم أن المشكلة تكمن عندما يواجه الذكاء الاصطناعى سؤالاً لا يملك إجابة عليه فإن خوارزمية «الاحتمالية» تظل تعمل وبما أنه مصمم لإرضاء المستخدم وتوليد نص مستمر فإنه يختار الكلمات التى «تبدو» صحيحة لغويًا ومنطقيًا حتى لو كانت مفبركة تمامًا لافتاً إلى غياب «الوعى بالجهل» لأن الذكاء الاصطناعى يفتقر حاليًا إلى ما يعرف بـ «ما وراء المعرفة» وهى القدرة البشرية على تقييم حدود الذات.

وقال عادل إنه بالاعتماد على التحليل التقنى فسنجد أن البشر يعرفون «متى لا يعرفون» أما النموذج فإذا لم يتم تدريبه بشكل صارم على قول «لا أعرف» فإنه سيعتبر أن مهمته هى التوليد باستمرار وليس «الاسترجاع». هذا ما يجعله يبدو مغرورًا أو مدعيًا لأنه يفتقر لآلية داخلية تقيس درجة اليقين فى المعلومة قبل نطقها.

أوضح عادل أن نماذج محركات البحث الموجودة حالياً تعمل وفق مبدأ تأثير الانحياز للمراضاة (Pleasing Bias) للحصول على أكبر قدر من رضا العميل وتأكيد مصداقيتها لديه ومن ثم رفع معدل ثقته واستمرار الاعتماد عليها وأنه يتم تدريب النماذج باستخدام تقنية تسمى «التعلم المعزز من التغذية الراجعة البشرية» (RLHF) فخلال التدريب قد يُكافأ النموذج على تقديم إجابات مفصلة ومقنعة بينما قد يُنظر للإجابات القصيرة بـ «لا أعرف» على أنها فشل فى الأداء هذا يدفع النموذج «لا شعوريًا» (برمجيًا) إلى فبركة تفاصيل مقنعة ليحافظ على مستوى الأداء المتوقع منه كمساعد ذكى.

وأضاف عادل إلى وصف عدد من الدراسات الحديثة لهذه النماذج بأنها «ببغاوات عشوائية» لأن النموذج يجمع أجزاءً من معلومات حقيقية ويربطها ببعضها بطريقة خاطئة لكنها متسقة لغويًا منوهاً إلى أن الدراسات ترى أن هذا ليس كذبًا متعمدًا بل هو خلل فى الربط المنطقى فالنموذج يمتلك البيانات لكنه يفتقر إلى «المنطق التداولي» الذى يربط النتائج بالمقدمات بشكل صحيح.

قال الدكتور أحمد عبداللطيف استشارى تكنولوجيا المعلومات إن غرور نماذج الذكاء الاصطناعى اللغوية الكبيرة (LLMs) - أو ما يُعرف بـ«الهلوسة الرقمية» يعد تحديًا جوهريًا يهدد مصداقية هذه التقنيات، مشيراً إلى أن هذا المصطلح يوضح ظاهرة قيام الذكاء الاصطناعى بصنع معلومات مفبركة أو خاطئة بدلاً من الاعتراف بعدم معرفته، مما يعكس ثقة زائدة غير مبررة.

وصرح «عبداللطيف» بأن هذه الظاهرة ليست مجرد خلل فنى بل مشكلة نظامية ناتجة عن تصميم النماذج وتدريبها مشددا على ضرورة مواجهتها من خلال استراتيجيات متعددة الأبعاد لضمان موثوقية الـAI فى التطبيقات الحقيقية.

ويُعاد صياغة جذور غرور الـAI كمشكلة حوافز نظامية بدلاً من خطأ عشوائى حيث يرجع عبداللطيف الهلوسة إلى قيود البيانات التدريبية مثل الضجيج أو التحيزات فى الجموع الضخمة المستمدة من الإنترنت مما يؤدى إلى تعلم معلومات قديمة أو خاطئة، متابعاً أن هيكل النماذج، مثل التنبؤ التلقائى للرموز يركز على السلاسة اللغوية على حساب الدقة الواقعية مما يسمح بتراكم الأخطاء الصغيرة إلى هلوسات كبيرة.

ففى دراسة من OpenAI فى سبتمبر 2025، تفسر أسباب الهلوسة كنتيجة لأهداف التدريب التى تشجع على «التخمين الواثق» مما يجعل النماذج تفضل الإبهار على الصدق.

وتابع «عبداللطيف» أن الهلوسة الرقمية تعد مصدر قلق رئيسياً للشركات خاصة فى القطاعات الحساسة مثل المالية والطب والقانون، محذراً من مخاطرها مثل فقدان الثقة الاضطرابات التشغيلية والمخاطر القانونية، لافتاً إلى أنها تؤدى إلى انتشار المعلومات المضللة وتقلل من الكفاءة فى التطبيقات عالية المخاطر، منوها إلى تحديات مثل نقص الشفافية فى «الصناديق السوداء» للنماذج وعدم القدرة على التحقق التلقائى من الحقائق فى الوقت الفعلى بالإضافة إلى زيادة الهلوسة فى اللغات ذات الموارد المنخفضة أو المهام متعددة الوسائط.

وظهرت مؤخرا عدة تقارير تقارن الوضع الحالى بفقاعة الإنترنت فى 1999، محذرة من أن التفاؤل المفرط قد يؤدى إلى كارثة إذا لم تُعالج هذه المشكلات خاصة مع انتشار الذكاء الاصطناعى فى الصناعات المنظمة خاصة بعد أن النماذج الحدودية مثل GPT-4o أصبحت أقل هلوسة من البشر فى بعض المهام الواقعية وفقاً لما أعلن داريو أمودى الرئيس التنفيذى لـAnthropic، خلال أحد الأحداث عام 2025.

من جانبه صنف محمد غيث، مسؤول إحدى الشركات المتخصصة فى إنتاج تقنيات الذكاء الاصطناعى، حلول الـai إلى فئات رئيسية، مبيناً أن هناك استطلاعات شاملة يعتمد نهجها على التلقائية، حيث يُعدل تصميم التلقائيات لقمع الهلوسة، مستشهداً باستخدام تلقائيات سلسلة الفكر (CoT) يعزز الاستدلال الخطوة بخطوة، مما يقلل من التناقضات بنسبة تصل إلى 30 فى المائة، بينما التلقائيات السلبية تمنع المعلومات غير المؤكدة، دراسات تظهر أن التلقائيات المنظمة تقلل من الهلوسة فى GPT-4o من 53فى المائة إلى 23فى المائة فى التطبيقات الطبية.

 كما أضاف «غيث» أن النهج القائم على الاسترجاع، مثل توليد المعزز بالاسترجاع (RAG)، يربط الإجابات بمصادر خارجية موثوقة، مما يقلل الهلوسة بنسبة 42-58فى المائة فى المجالات المالية والطبية. لافتاً إلى أن ذلك الاسترجاع قبل أو أثناء أو بعد التوليد، يشمل دمج الرسوم البيانية المعرفية لتحسين الدقة. موضحاً أن النهج القائم على الاستدلال، يعتمد على تقنيات مثل التحقق الذاتى أو التكرارى، حيث يقيم النموذج إجاباته مقابل أدلة، مما يقلل الأخطاء بنسبة 63فى المائة فى النهج متعدد النماذج.

 

أخبار الساعة

الاكثر قراءة