الخيال العلمي أول من خط قوانين الذكاء الاصطناعي

الخيال العلمي أول من خط قوانين الذكاء الاصطناعي

قبيل بدء القمة الدولية للذكاء الاصطناعي في بلتشلي بارك الشهر الماضي، ذهبت لتناول وجبة سريعة في مكان قريب. جلس رجل أمامي وأخرج غلافا ورقيا مجعدا. مكتوب على الغلاف إسحاق أسيموف، أحد أشهر مؤلفي الخيال العلمي. بالتأكيد، لم يكن هذا من قبيل الصدفة. كان أسيموف سابقا لعصره عندما توقع، خلال منتصف القرن الـ20، الدور القوي للذكاء الاصطناعي على حياتنا. في كتبه، تصور سلسلة من القوانين التي تضمن أن الروبوتات لن تؤذي البشر أو تضرهم، بل ستطيعهم.
ذكرني ذلك الرجل بكتابه بأهمية أن نضمن -نحن السياسيين- مآلا مماثلا، عندما توجهت إلى القمة لمناقشة مستقبل الذكاء الاصطناعي الآمن. خلال رحلاتي إلى لندن وطوكيو وواشنطن وبكين وبالطبع بروكسل في الخريف الماضي، تفكرت في حقيقة أننا كنا نكتب أول كتاب قواعد في العالم، لتنظيم عمليات حاسوبية هي أسرع وأقوى بكثير من البشر.
سرعان ما تفوقت الأعمال الحقيقية على الخيال العلمي. ناقشت مع السياسيين الصينيين في بكين أحكامهم التشريعية النموذجية. لا تختلف أحكامهم كثيرا عن أحكامنا فيما يتعلق بالجانب التقني للأشياء، بل فيما قد تسهم به في رقابة الدولة على المجتمع. وأشار نواب في الولايات المتحدة -التي كان لديها نهج غير منظم إلى حد ما سابقا- إلى الأمر التنفيذي لإدارة بايدن في الذكاء الاصطناعي أواخر أكتوبر. وعلى مقربة من وطني، وبالنيابة عن الاتحاد الأوروبي، قدت المفاوضات في مجموعة السبع. هناك تمكنا من التوصل إلى تشريع مبدئي على المستوى العالمي، مدونة قوانين طوعية لمطوري الذكاء الاصطناعي، تشمل المساءلة عن الأمن وتبادل المعلومات.
كما استجابت أوروبا بسرعة لمطالب الذكاء الاصطناعي الآمن. نشط الإطار المقترح لعام 2021 حين اتضحت الحاجة الملحة لجعل التكنولوجيا آمنة ومفيدة. واستمر ما يسمى بالحوار الثلاثي -وهو النهائي الكبير بين الرئاسة الإسبانية والبرلمان والمفوضية- لمدة 36 ساعة هذا الشهر، لكنه انتهى بتسوية تاريخية.
احتياجات الأفراد هي معيار كل فقرة. يضمن القانون الأمن وحماية حقوق الإنسان الأساسية في مواجهة أنظمة فائقة الذكاء، التي يمكن أن تثبت على المدى الطويل أنها مفكرة أذكى منا. لقد توصلنا إلى فئات عديدة لمخاطر الذكاء الاصطناعي، تشمل الأنظمة منخفضة المخاطر ألعاب الفيديو وخوارزميات فرز رسائل بريدنا الإلكتروني "أمور متأكدة من أننا سنستفيد منها جميعا". أما الأنظمة عالية المخاطر فسيكون عليها أن تستوفي متطلبات صارمة، سواء كانت أنظمة أجهزة طبية أو تلك التي تؤثر في سلوك الناخبين في صندوق الاقتراع.
تشمل قائمة المخاطر غير المقبولة ما يهدد حقوقنا الإنسانية الأساسية. يمكن أن تشمل أنظمة فرز السمات الحيوية على أساس الدين أو العرق، أو التعرف على المشاعر في مقر العمل، أو التعرف على الوجوه غير المستهدفة من كاميرات الأماكن العامة "ستثتثنى منها قضايا الأمن القومي".
لكننا ندرك أيضا الثمار المحتملة لأنظمة الذكاء الاصطناعي الآمنة ونريد حقا أن نجعل الاتحاد الأوروبي مركزا لها. لهذا السبب قررنا إتاحة حواسيبنا فائقة الأداء لشركات الذكاء الاصطناعي الناشئة الأوروبية والشركات الصغيرة والمتوسطة. كما سنستثمر أكثر من مليار يورو سنويا في أبحاث الذكاء الاصطناعي من برنامجي الاتحاد، هورايزن وديجيتال يوروب.
اتفاقنا السياسي لم تؤيده الدول الأعضاء والبرلمان الأوروبي بعد. سيدخل القانون حيز التنفيذ على مراحل، التشريع الكامل محدد مؤقتا ليسري عام 2026. في غضون ذلك، ستستمر أنظمة الذكاء الاصطناعي في تغيير حياتنا كلها. سنعهد إليها بأعمال عديدة بحيث يمكن أن تحل محل البشر، لكن ليس تلك الأعمال التي يمكن أن تستولي فيها على حقوقنا الأساسية مثل حرية التعبير أو حماية الملكية الفكرية.
لقد اعتقدت منذ بادئ الأمر أنه يجب تصنيف المحتوى الذي أنشأه الذكاء الاصطناعي، بحيث يترك تفكير وإبداع البشر مع تصنيف أشبه بـ"حقوق الطبع والنشر البشرية". نحن نتعلم بالفعل كيف يمكن أن تغير التكنولوجيا تصوراتنا للواقع والحقيقة. يعمل الذكاء الاصطناعي بالبيانات الموجودة في متناوله. إنه لا يعرف ما هو صحيح. وفي عالم يمكن أن يأتي فيه التزييف العميق من العدم، فإننا دائما في خطر أن تفلت قبضتنا على الواقع.
هذا ما كنت أفكر فيه عندما ذكرني الرجل الإنجليزي في الجانب الآخر من الطاولة بقوانين أسيموف. وقد تحولت هذه القوانين الآن، إلى جانب تدابير أخرى، لتصبح أول قاعدة قانونية أوروبية على الإطلاق، التي قد تصبح الأساس لجميع اللوائح المماثلة في جميع أنحاء العالم. يجب أن نحكم سيطرتنا على الروبوتات والذكاء الاصطناعي، لضمان أن تسود الحقيقة وحقوق الإنسان في المستقبل، بدلا من أن يصبح المستقبل خيالا علميا.

*نائبة المفوضية الأوروبية للقيم والشفافية.

الأكثر قراءة