الإشارات الحمراء لا توقف قطار الذكاء الاصطناعي المنطلق
منذ أن حلم الإغريق القدماء بأسطورة بروميثيوس، والبشرية تتجادل حول الطبيعة المزدوجة للتكنولوجيا. فالنار التي سرقها بروميثيوس من الآلهة تستطيع أن تمد البشر بالدفء، لكنها تحرقنا أيضا. هذه هي الحال اليوم مع الانتشار الواسع لأنظمة الذكاء الاصطناعي. لطالما جادل المدافعون عن الذكاء الاصطناعي بأن هذه التكنولوجيا ذات الأغراض العامة ستؤدي إلى طفرة غير مسبوقة في الإنتاجية والإبداع، بينما يخشى منتقدوها أنها تنطوي على مخاطر مقلقة في الوقت الحاضر وقد تشكل تهديدا وجوديا للبشرية في المستقبل.
أدى إصدار نماذج الذكاء الاصطناعي التوليدي القوية العام الماضي، مثل تشات جي بي تي ودال-إي 2 التي طورتها شركة أوبن أيه آي، إلى عودة ظهور هذا الجدل. أكثر من مائة مليون مستخدم جربوا بالفعل الأشياء الغريبة والعجيبة التي يمكن أن تفعلها هذه الأنواع من النماذج التوليدية: كتحقيق مستويات شبه بشرية للتعرف على النصوص والصور وتكرارها، والمشاركة في كتابة شيفرات برمجية للحاسوب، وإنتاج صور مزيفة سريعة الانتشار لبابا الفاتيكان مرتديا سترة منتفخة باللون الأبيض.
في منشور صدر أخيرا، قال بيل جيتس، الشريك المؤسس لشركة مايكروسوفت الذي تحول إلى فاعل خير، "إنه شاهد في ذهول نموذج أوبن أيه آي يجتاز اختبارا متقدما في علم الأحياء في أيلول (سبتمبر) الماضي"، وتوقع أن تجلب هذه التكنولوجيا فوائد هائلة لمجالات الرعاية الصحية والتعليم. كذلك توقع تقرير بحثي نشره بنك جولدمان ساكس هذا الأسبوع، أن الاعتماد واسع النطاق للذكاء الاصطناعي يمكن أن يعزز إنتاجية العمل بشكل كبير ويزيد الناتج المحلي الإجمالي السنوي العالمي 7 في المائة.
لكن التطور السريع والاستخدام المتزايد لأنظمة الذكاء الاصطناعي التوليدية أثار قلق كثيرين أيضا. بعض الباحثين في جوجل، مثل تيمنيت جبرو ومارجريت ميتشل، كانوا من بين الأوائل الذين أشاروا إلى مخاطر نماذج شركة جوجل الخاصة بالذكاء الاصطناعي التوليدي التي كانت تجسد التحيزات المجتمعية الحالية ـ تم طردهما من العمل فيما بعد. في رسالة مفتوحة نشرها معهد فيوتشر أوف لايف هذا الأسبوع، رفع أكثر من 1100 من الموقعين على الرسالة، بينهم عدد من الباحثين البارزين في مجال الذكاء الاصطناعي، مستوى التحذير، داعين إلى تجميد تطوير النماذج الرائدة لمدة ستة أشهر، إلى حين التمكن من وضع أنظمة إدارة أفضل. فهذه الآلات غير الخاضعة للرقابة، قد تغمر الإنترنت بالأكاذيب، وتؤدي إلى أتمتة وظائف ذات أهمية، بل وتهدد الحضارة. قال كاتبو الرسالة "لا ينبغي أن يعهد بهذه القرارات إلى قادة تكنولوجيا غير منتخبين".
هناك ثلاثة خيوط على الأقل يجب تفكيكها وسط هذا الجدل. الأول والأسهل من حيث الاستبعاد، هو الهلع الأخلاقي الذي يصاحب كل تكنولوجيا جديدة تقريبا، سواء أكانت القطارات البخارية، أو الكهرباء، أو السيارات، أو أجهزة الحاسوب. حتى اختراع بنجامين فرانكلين لما يبدو أنه مانع للصواعق، عارضه كبار رجال الكنيسة في البداية. كقاعدة عامة، من الأفضل مناقشة كيفية استخدام التكنولوجيات ذات القيمة التجارية بشكل مناسب، بدلا من استقبالها باللعنات.
الثاني هو كيف تميل المصالح التجارية إلى التوافق مع المواقف الأخلاقية. بدأت شركة أوبن أيه آي في عام 2015 باعتبارها مختبر أبحاث غير ربحي، مع وعد بالتعاون مع شركاء خارجيين لضمان التطوير الآمن للذكاء الاصطناعي. لكن في عام 2019، تحولت الشركة إلى نموذج يسعى إلى الربح، الأمر الذي مكنها من جمع تمويل من رأس المال المغامر وإصدار خيارات أسهم لجذب كبار الباحثين في مجال الذكاء الاصطناعي. منذ ذلك الحين، اجتذبت استثمارات كبيرة من مايكروسوفت وأصبحت أقرب إلى كيان تجاري مغلق. بعد ذلك بدأت بعض الانتقادات تأتي على الأقل من منافسين لديهم مصلحة في إبطاء تطور شركة أوبن أيه آي.
الخيط الأخير والأهم هو أن عديدا من خبراء الذكاء الاصطناعي الجادين والمطلعين على أحدث الاختراقات العلمية، قلقون فعلا بشأن سرعته على هذا المسار واتجاهه. تتفاقم مخاوفهم بسبب الاتجاه السائد بين بعض شركات التكنولوجيا الكبرى، مثل مايكروسوفت وميتا وجوجل وأمازون، لتقليص فرقهم المعنية بأخلاقيات المهنة.
وكما كتب جيتس في منشوره، قوى السوق وحدها لن تعالج المشكلة. منظمات المجتمع المدني تتحرك بسرعة، وبعض الحكومات تسعى إلى وضع تشريعات أكثر وضوحا. نشرت المملكة المتحدة هذا الأسبوع مسودة قواعد مؤيدة للابتكار في الذكاء الاصطناعي، بينما يضع الاتحاد الأوروبي تعليمات أكثر صرامة بشأن ضبط استخدام هذه التكنولوجيا في المجالات عالية المخاطر. لكن لا تبدو هذه الجهود في الوقت الحالي أكثر من مجرد تلويح بإشارة تحذيرية صغيرة لقطار ينطلق بسرعة متزايدة.
ما لم تتمكن الشركات التي تقود ثورة الذكاء الاصطناعي من أن تثبت بمصداقية أن نماذجها مصممة لتتماشى مع المصالح الإنسانية العليا، يمكنها أن تتوقع رد فعل شعبيا أكثر شراسة. ما يجب أن يكون تاليا على جدول الأعمال، هو المؤسسات المستقلة ذات الخبرة التي تتمتع بصلاحية تدقيق خوارزميات شركات الذكاء الاصطناعي وتقييد استخدامها.