الذكاء الاصطناعي التوليدي خطر ينبغي احتواؤه
بالنسبة إلى المنظمين الذين يحاولون فهم الجيل الجديد من أنظمة الذكاء الاصطناعي مثل تشات جي بي تي، هناك مشكلتان مختلفتان للغاية عليهم مواجهتهما. إحداهما هي عندما لا تعمل التكنولوجيا على النحو المنشود. والأخرى عندما تعمل.
أصبح الذكاء الاصطناعي التوليدي، الذي ينتج نصا أو صورا بشكل آلي، خطرا محتملا بسبب قوته الهائلة وعدم القدرة على التحكم فيه، وهو ما يعد مزيجا ضارا يطرح مجموعة فريدة من المشكلات لأي شخص يأمل في الحد من قدرته على إلحاق الأذى.
قبل تشات جي بي تي، كان هناك إجماع إلى حد كبير على أهداف تنظيم الذكاء الاصطناعي. كان كل الاهتمام منصبا على محاولة التحكم في تطبيقات هذه التكنولوجيا، مع التركيز بشكل خاص على استخدامها في المسائل عالية الخطورة مثل الرعاية الصحية. الآن، هناك سؤال مختلف تماما يطرح نفسه. عندما يكون لدى روبوت محادثة ذكي متعدد الأغراض القدرة على إحداث اضطراب يشمل مجموعة واسعة من الأنشطة البشرية، فهل حان الوقت لإخضاع نماذج الذكاء الاصطناعي نفسها للتنظيم؟
ما يسمى تكنولوجيا الأغراض العامة مثل الذكاء الاصطناعي، التي يمكن استخدامها في عديد من الأمور المختلفة، تمثل مشكلة خاصة للمنظمين. فمع الذكاء الاصطناعي، من الصعب الفصل بين الاستخدامات الحميدة والاستخدامات الأكثر سوءا. كما صرح صانعو الذكاء الاصطناعي بأنهم لا يستطيعون تماما شرح كيفية عمل هذه التكنولوجيا، أو التنبؤ بما يحدث عندما يؤدي إدخال بيانات ما، على شكل أمر، إلى ناتج معين.
الخبر الذي يبعث على التفاؤل هو أن هناك كثيرا من العمل الجاري للتعامل مع المشكلات الفريدة التي تبرزها التكنولوجيا. بالنسبة إلى الحكومات في جميع أنحاء العالم السؤال المطروح الآن هو ما إذا كانت ستتدخل وتدعم هذه الجهود، مستخدمة قوة التنظيم الرسمي.
ما يسمى النماذج اللغوية الكبيرة التي تقف وراء خدمات الذكاء الاصطناعي التوليدية، مثل تشات جي بي تي، تفشل في المقياس الأساسي للفاعلية لأي تكنولوجيا: وهي القدرة على تحديد ما تنوي فعله بوضوح، ثم قياس ما إذا حققت أهدافها. هناك قليل من الاتساق في أدائها، فضلا عن أن تقييمات مخرجاتها ذاتية جدا.
في الولايات المتحدة، يعمل المعهد الوطني للمعايير والتكنولوجيا مع عدد من الخبراء على محاولة التوصل إلى معايير لكيفية وجوب تصميم هذه الأنظمة واختبارها ونشرها.
كان هناك ضغط آخر من أجل الشفافية قد يجعل من السهل إخضاع النماذج لدرجة أكبر من التدقيق الخارجي. إن فهم ما يحدث داخل نظام التعلم مثل نماذج اللغات الكبيرة، ليس بالمسألة المباشرة مثل إظهار الشفرة في البرامج التقليدية.
لكن صانعي النماذج الكبيرة، مثل شركة أوبن أيه آي وجوجل، يواجهون مخاطر قد تشوه سمعتهم بسبب الخوف الناجم عن هذه التكنولوجيا القوية والغامضة، وهم حريصون على إيجاد طرق لإشباع الرغبة في مزيد من الانفتاح. بعد زيارة الرؤساء التنفيذيين أربع شركات رائدة في مجال الذكاء الاصطناعي لواشنطن في وقت سابق من هذا الشهر، أعلن البيت الأبيض أنهم سيقدمون نماذجهم للتدقيق الخارجي في مؤتمر ديفكون السنوي للأمن السيبراني في آب (أغسطس).
وضع المعايير لعمليات السلامة، وزيادة الشفافية حول عمل النماذج وإعطاء الخبراء الخارجيين فرصة للفحص والاختبار كلها طرق لزيادة التطمينات بشأن نماذج اللغات الكبيرة. يبقى السؤال، ما التنظيم الرسمي المطلوب وما القيود التي يجب وضعها على النماذج التي تعد تهديدا.
أحد الاحتمالات التي اقترحها ألكساندر وانج، الرئيس التنفيذي لشركة سكيل أيه آي، هو أن يتم التعامل مع الذكاء الاصطناعي مثل التعامل مع نظام جي بي إس لتحديد المواقع، أي قصر أقوى إصدارات التكنولوجيا على الاستخدامات المقيدة. لكن سيكون من الصعب فرض حدود كهذه في سوق تكنولوجية تنافسية. نهج آخر أوصى به هذا الأسبوع سام ألتمان، الرئيس التنفيذي لشركة أوبن أيه آي، هو إخضاع نماذج اللغات الكبيرة للرقابة التنظيمية المباشرة. حيث يمكن استخدام نظام الترخيص لضمان التزامها بمعايير أمان معينة وفحصها بشكل مناسب.
ورغم جاذبية هذا الاقتراح، إلا أنه ينطوي على عيوب ملحوظة. فقد يؤدي ذلك إلى المخاطرة بإنشاء سوق منفصلة للنماذج الكبيرة المنظمة تخضع لسيطرة حفنة من الشركات التي لديها موارد للعمل في بيئة شديدة التنظيم.
كذلك الوتيرة السريعة الحالية للتطور في الذكاء الاصطناعي قد تسبب مشكلات أيضا. فبحكم التعريف، أصبحت بسرعة النماذج الأكثر تقدما اليوم أجزاء روتينية من برمجيات الغد. في الوقت نفسه، بعض الإمكانات التي لا تتوافر حاليا سوى في النماذج الكبيرة المتعددة الأغراض، مثل تشات جي بي تي، قد توجد قريبا في أنظمة أصغر بكثير مدربة على التعامل مع مهام أضيق وأكثر تخصصا.
لا شيء من ذلك يفسح المجال لإجابات سهلة. لكن مع مطالبة اختصاصي التكنولوجيا أنفسهم بالإشراف على الروبوتات الذكية، يبدو أن شكلا من أشكال التنظيم المباشر أصبح لا مفر منه.