مستقبل الذكاء الاصطناعي في خطر: علماء يحذرون من انهيار محتمل

شارك المقال اذا اعجبك

في السنوات الأخيرة، شهدت الأنظمة التي تنشئ النصوص مثل “شات جي بي تي” من شركة “أوبن إيه آي” انتشارًا واسعًا وإثارة كبيرة. هذا الانتشار دفع الكثيرين إلى نشر مواضيع على المدونات والمنصات باستخدام هذه الأنظمة، مما أدى إلى زيادة كبيرة في المحتوى الذي يتم إنتاجه بواسطة الذكاء الاصطناعي.

التدريب على المحتوى المتكرر يهدد الأنظمة بالانهيار

تعتمد العديد من الشركات المنتجة لأنظمة الذكاء الاصطناعي على نصوص مأخوذة من الإنترنت لتدريبها. ومع امتلاء الإنترنت بالمحتوى الذي يصنعه الذكاء الاصطناعي نفسه، يصبح هناك خطر من وقوع هذه الأنظمة في دائرة تدريب مفرغة على المحتوى نفسه. هذا الوضع قد يؤدي إلى تدهور جودة المحتوى المنتج، حيث تبدأ الأنظمة في إنتاج “هراء”.

دراسة تحذر من “انهيار النموذج”

في ورقة بحثية حديثة، حذر العلماء من أن هذه الظاهرة قد تؤدي إلى انهيار أنظمة الذكاء الاصطناعي بسرعة. وأوضح الباحثون أن الأمر لا يستغرق سوى بضع دورات من توليد المحتوى ثم التدريب عليه حتى تبدأ الأنظمة في إنتاج محتوى عديم القيمة. على سبيل المثال، وجد العلماء أن نظامًا تم اختباره باستخدام نص حول الهندسة المعمارية في العصور الوسطى استغرق 9 أجيال فقط قبل أن يتحول الناتج إلى قائمة متكررة من “الهراء”.

مفهوم “انهيار النموذج” وتزايد المخاوف

يطلق على هذه الظاهرة اسم “انهيار النموذج”، وهي تشير إلى تدريب أنظمة الذكاء الاصطناعي على مجموعات بيانات تم إنشاؤها بواسطة الذكاء الاصطناعي نفسه. يحذر الباحثون من أن هذا الانهيار قد يصبح أكثر شيوعًا مع زيادة استخدام أنظمة الذكاء الاصطناعي عبر الإنترنت، مما يهدد بجعل المزيد من شبكة الإنترنت مملوءة بمحتوى متكرر وعديم القيمة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى