صانعة «Chat GPT» تتجاهل مخاطر بناء نظام ذكاء اصطناعي عام
أفادت تقارير بأن شركة «Open AI» التي أنتجت روبوت الدردشة الشهير «Chat GPT»، تدرك المخاطر الكبيرة الناجمة عن بناء نظام ذكاء اصطناعي عام «AGI»، لكنها تتجاهلها.
ويعد «AGI» نوعاً افتراضياً من الذكاء الاصطناعي، يتميز بالقدرة على الفهم والتفكير من خلال مجموعة واسعة من المهام، وهي تكنولوجيا تحاكي أو تتنبأ بالسلوك البشري، وتظهر القدرة على التعلم والتفكير.
وقال الباحث دانييل كوكوتايلو، الذي ترك فريق الحوكمة في «Open AI» في إبريل/ نيسان الماضي، في مقابلة مع «نيويورك تايمز»، إن احتمال تدمير «الذكاء الاصطناعي المتقدم» للبشرية يبلغ حوالي 70%، لكن الفريق المطور (مقره في سان فرانسيسكو) يمضي قدماً في ذلك بغض النظر.
وأضاف أن شركة «Open AI» متحمسة حقاً لبناء الذكاء الاصطناعي العام، وتسعى لتكون الأولى في هذا المجال، مشيراً إلى تكليفه بعد انضمامه إلى الشركة قبل عامين، بالتنبؤ بتقدم التكنولوجيا، وأنه توصل إلى استنتاج مفاده بأن الصناعة لن تطور الذكاء الاصطناعي العام بحلول عام 2027 فحسب، بل هناك فرصة قوية لأن تؤدي هذه التكنولوجيا إلى إلحاق ضرر كارثي بالبشرية أو حتى تدميرها.
وأفاد كوكوتايلو بأنه أخبر الرئيس التنفيذي لـ«Open AI»، سام ألتمان، بأن الشركة يجب أن تركز على السلامة وتنفق المزيد من الوقت والموارد على مواجهة المخاطر التي يشكلها الذكاء الاصطناعي بدلاً من الاستمرار في جعله أكثر ذكاءً، وقال إن ألتمان اتفق معه، لكن شيئاً لم يتغير منذ ذلك الحين.
ويعد كوكوتايلو جزءاً من مجموعة من المطلعين على «Open AI»، الذين أصدروا مؤخراً رسالة مفتوحة تحث مطوري الذكاء الاصطناعي على تحقيق قدر أكبر من الشفافية والمزيد من الحماية للمبلغين عن المخالفات.
ودافعت «Open AI» عن سجل السلامة الخاص بها وسط انتقادات الموظفين والتدقيق العام، قائلة إنها فخورة بسجلها الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر كفاءة وأماناً، وإنها تؤمن بنهجها العلمي لمعالجة المخاطر.