الأحكام المسبقة.. «عدوى بشرية» تهدد الذكاء الاصطناعي
يُحدث الذكاء الاصطناعي تحوّلاً تدريجياً في حياة الناس اليومية؛ إذ يُسهّل المهام البسيطة أو المعقدة، لكنّ الأحكام البشرية المسبقة تكثر في الكمّ الكبير من المعلومات التي يقوم عليها، مما ينذر بانتقال عدوى التمييز إلى العقل الآلي، فهل يمكن جعلُه محايداً؟
في رأي الخبراء أن هذا الأمر غير ممكن في الوقت الراهن، ملخصّين وجهة نظرهم بأن الخميرة لا يمكن أن تُزال من قالب الحلوى بعد خَبزِه.
وهذا الاستنتاج يصحّ خصوصاً على الذكاء الاصطناعي التوليدي؛ إذ إن برامجه تنهل معلوماتها من الإنترنت، فتتغذى من المواقع الإلكترونية وشبكات التواصل الاجتماعي ومقاطع الفيديو، وسوى ذلك، لتُنتِج في المقابل كل أنواع المحتوى، على الطلب.
إلاّ أن الانطباع الذي تتركه قدرات الذكاء الاصطناعي التوليدي قد يكون خادعاً؛ إذ إن برامجه على غرار «تشات جي بي تي» تبقى مجرّد آلات قائمة على منطق الرياضيات، تتنبأ بالكلمات أو وحدات البكسل الأكثر احتمالاً واحدة تلو الأخرى.
وقال مدير المنتجات في شركة «المبيك» الناشئة للذكاء الاصطناعي جايدن زيغلر، إن النماذج اللغوية لبرامج الذكاء الاصطناعي التوليدي «لا تُدرك ما تعرفه، أو لماذا تعرفه». وشرح أنها «لا تستطيع تمييز ما هو متحيز أم لا، وما يتسم بالشمول أم لا، لذلك لا يمكنها فعل أي شيء حيال ذلك».
وتبدو الحلول التكنولوجية لهذا الخطر محدودة. من هذا المنطلق، تحاول الشركات «مواءمة» نماذج الذكاء الاصطناعي مع القيم المنشودة، من خلال فرض القواعد عليها. وبالتالي، توقفت معظم برامج الدردشة الآلية عن التعبير عن المشاعر التي لا تتمتع بها، وأصبحت تنتج نتائج أكثر تنوعاً.
ولكن تبيّن في فبراير/شباط الماضي أن ثغرات ونقاط ضعف تشوب طريقة «الفلاتر»، عندما استجاب برنامج الذكاء الاصطناعي التوليدي «جيميناي» (من «جوجل») لطلبات لإدراج رجل أسود وامرأة آسيوية ضمن صور عن جنود ألمان من الحرب العالمية الثانية.
وتحت ضغط المنافسة، تستعجل شركات التكنولوجيا العملاقة ابتكار أدوات مساعدة قائمة على الذكاء الاصطناعي وتوفيرها للمستخدمين بسرعة كبيرة.