الإنسان .. شر قدوة تمشي على خطاه الروبوتات
قبل بضعة أشهر، وجدتني أقود خلف سيارة ذاتية القيادة في سان فرانسيسكو. كان الأمر مثيرا للقلق، لكن ليس لأن السيارة كانت تقود بطيش أو خطر، بل لأنها كانت تقود جيدا للغاية.
ولا سيما أن السائق الروبوت توقف بذمة عند كل علامة "توقف"، وكبح الفرامل عند الضوء الأصفر، وظل يسير دون الحد الأقصى للسرعة القانونية. أجبرني ذلك على القيادة مثله، وذلك أثار غضبي إلى حد ما، لأني (مثل معظم السائقين البشر) كنت حتى ذلك الحين أتجنب قواعد المرور قليلا في بعض الأحيان.
إنها حكاية تافهة. لكنها تسلط الضوء على سؤال وجودي يخيم على قمة حكومة المملكة المتحدة عن الذكاء الاصطناعي هذا الأسبوع، ففيما نتسابق لبناء أنظمة تتحسن في "لعبة التقليد"، ما أنواع السلوك البشري التي يجب أن تنسخها الروبوتات؟
هل يجب أن تكون هذه هي رؤيتنا المثالية للسلوك - مثلا، عالم نلتزم فيه جميعا بقواعد المرور؟ أم أرض البشر "الحقيقيين"، حيث يعبر السائقون إشارات التوقف ببطء؟ والأهم من ذلك، من الذي ينبغي له أن يقرر؟
القضية مهمة في كل مجال يطبق فيه الذكاء الاصطناعي التوليدي، سواء كان التمويل أو الإعلام أو الطب أو العلوم. لكن حكاية المركبات ذاتية القيادة تبلور القضية بوضوح خاص، لأن شركات مثل وايمو وجنرال موتورز وتسلا التي تشغل بالفعل أساطيل في مناطق مثل أريزونا وكاليفورنيا تتخذ مناهج مختلفة اختلافا غير ملحوظ.
لنتأمل هنا "وايمو"، مجموعة السيارات ذاتية القيادة المملوكة لشركة ألفابت. تتجول مركباتها حول فينيكس، أريزونا منذ نحو عامين بنظام ذكاء اصطناعي تم تطويره (تقريبا) باستخدام مبادئ محددة مسبقا، مثل قواعد الإدارة الوطنية لسلامة النقل على الطرق السريعة.
"على عكس البشر، صمم نظام وايمو درايفر لاتباع حدود السرعة القانونية"، كما تقول الشركة، مستشهدة بأبحاثها الأخيرة التي تظهر أن السائقين البشر يخالفون قواعد السرعة نصف المرات المرصودة في سان فرانسيسكو وفينيكس.
كما تدرب المركبات على التوقف عند الإشارات الحمراء، وهي نقطة تسعد الإدارة الوطنية، التي كشفت أخيرا أن 4.4 مليون أمريكي بشري تقريبا قطعوا الإشارة الحمراء في 2022، وقتل أكثر من 11 ألف شخص بين 2008 و2021 جراء قطع أحد ما الإشارة.
في أمر لا يبعث على الدهشة، هذا يعني أن سيارات "وايمو" أكثر أمانا من البشر كما يبدو. (مستوى الأمان منخفض للغاية باعتراف الجميع، بالنظر إلى أن 42 ألف شخص لقوا مصرعهم في حوادث السيارات في أمريكا العام الماضي).
لكن الأمر المثير للاهتمام حقا هو أن مسؤولي "وايمو" يشتبهون في أن وجود المركبات ذاتية القيادة التي تتبع القواعد في فينيكس يشجع السائقين البشر على اتباع القواعد أيضا - إما لأنهم عالقون خلف سيارة ذاتية القيادة أو يشعرون بالعار من وجود روبوت يذكرهم دون قصد بقواعد المرور. ضغط الأقران نافع، حتى مع الروبوتات.
أجريت أبحاث قليلة عن هذا حتى الآن. لكن هذا يعكس تجربتي في سان فرانسيسكو. وتظهر دراسة (محدودة) أجراها معهد ماساتشوستس للتكنولوجيا أن وجود المركبات ذاتية القيادة على الطريق يمكن أن يحسن سلوك جميع السائقين. مرحى!
غير أن "تسلا" المملوكة لإيلون ماسك اتخذت مسارا مختلفا. حسب السيرة التي كتبها والتر إيزاكسون عن ماسك، حاول ماسك في البداية تطوير الذكاء الاصطناعي بقواعد محددة مسبقا. لكنه تبنى بعد ذلك أشكالا أحدث من الذكاء الاصطناعي التوليدي أو الإحصائي (النهج المستخدم في شات جي بي تي). هذا "يدرب" أنظمة الذكاء الاصطناعي على القيادة ليس بشفرة محددة مسبقا بل بمراقبة سائقين بشرا حقيقيين. استخدم عشرة ملايين مقطع فيديو من سيارات تسلا الموجودة على ما يبدو.
قال دافال شروف، مسؤول في "تسلا"، لإيزاكسون: إن مقاطع الفيديو الوحيدة المستخدمة في هذا التدريب كانت "من بشر نجحوا في التعامل مع موقف ما جيدا". هذا يعني أنه طلب من موظفي "تسلا" تصنيف تلك المقاطع العشرة ملايين وتسليم أمثلة قيادة "جيدة" فقط لتدريب الروبوت - لتدريب الروبوتات على السلوك الجيد وليس السيئ.
ربما. لكن تفيد تقارير بأن سيارات "تسلا" تحاكي البشر أكثر فأكثر بالسير ببطء عند عبور إشارات التوقف أو إشارات المرور مثلا. في الواقع، عندما كان إيلون ماسك يجري بثا مباشرا لرحلته في أغسطس على سيارة ذاتية القيادة، كان عليه التدخل يدويا لمنعها من قطع الضوء الأحمر. الإدارة الوطنية تجري تحقيقا.
بالطبع، قد يرد ماسك بأن جميع السائقين يحتاجون أحيانا إلى خرق القواعد في ظروف استثنائية للحفاظ على السلامة. وقد يرد أيضا بأنه من الطبيعي أن تتخذ الشركات أساليب مختلفة للذكاء الاصطناعي، ثم تترك العملاء يختارون. هذه هي الطريقة التي تكون بها منافسة الشركات عادة.
لكن بعض السلطات التنظيمية قلقة، على الرغم من أن سيارة كروز من جنرال موتورز أصدرت بيانات في وقت سابق من هذا العام تظهر سجلا جيدا للسلامة عموما، إلا أن إدارة السيارات في كاليفورنيا طالبت الشركة هذا الأسبوع بالتوقف عن تشغيل المركبات ذاتية القيادة دون سائق بعد وقوع حادث. والمشكلة هي أنه في حين يمكن للجهات التنظيمية نظريا التدقيق في المركبات ذاتية القيادة التي تعتمد على قواعد محددة مسبقا (إذا كان بإمكان الجهات الخارجية الاطلاع على الشفرة)، فمن الصعب مراقبة الذكاء الاصطناعي التوليدي، لأن نتيجة محاكاة السلوك البشري "الحقيقي" لا يمكن التنبؤ بها - حتى لمنشئيها.
في كلتا الحالتين، النقطة الرئيسة التي يحتاج المستثمرون إلى فهمها هي أن المتغيرات من هذه المشكلة ستطارد مجالات مثل التمويل أيضا عما قريب، كما قال جاري جينسلر، مفوض الأوراق المالية والبورصات أخيرا لـ"فاينانشيال تايمز". هل يجب برمجة المشاركين الممكنين بالذكاء الاصطناعي في الأسواق المالية بقواعد محددة مسبقا تصدر من السلطات العليا؟ أو بالتعلم من محاكاة سلوك البشر الذين قد "يراجحون" بين القواعد والربح (أو يتحايلون عليها) من أجل الربح؟ من يقرر؟ ومن يتحمل المسؤولية إذا حدث خطأ؟
لا توجد إجابات سهلة. لكن كلما أصبح الذكاء الاصطناعي مغروسا أكثر في عالمنا، كان التحدي أصعب، كما يعلم الحاضرون في قمة هذا الأسبوع. ربما يجب أن يبدأوا بإجالة النظر في إشارة المرور.