التقنيات المفرطة .. هل يمكن تطويعها؟
مع ظهور الذكاء الاصطناعي التوليدي، حدثت ثورة في عملية إنشاء المحتوى ومشاركته وتنظيمه، إذ تتجاوز إمكاناته وقدراته إنشاء النصوص، لتشمل الصور والتصاميم ومقاطع الفيديو والشعارات، وبالتالي، أثر الذكاء الاصطناعي بشكل كبير في المحتوى المنشور على وسائل التواصل الاجتماعي.
وفي ظل ازدياد الاهتمام بالتطبيقات الجديدة بهذه التقنية المستمرة في الانتشار، يسارع مشرعون أمريكيون وأوروبيون إلى وضع قوانين ناظمة لاستخدام هذه التكنولوجيا الحديثة، خصوصا حين أقروا بضرورة تقنين استخدام الذكاء الاصطناعي، مع مخاطره المحتملة. وكغيره من التقنيات الحديثة، يعد سلاحا ذا حدين، يقدم عديدا من الفرص والتحديات في الوقت نفسه.
وعلى هذا الصعيد فهناك قلق بشأن وتيرة تطوير الشركات لأدوات الذكاء الاصطناعي، ولا سيما فيما يتعلق بفكرة إمكانية انتشار المعلومات المضللة، خاصة في عالم التواصل الاجتماعي المتسارع بشكل مستمر، ولا يمكن التغاضي عن تأثير التكنولوجيا في المحتوى الذي نستهلكه ونشاركه، فمع وجود 4.62 مليار مستخدم نشط في جميع أنحاء العالم، خاصة منصات التواصل الاجتماعي التي تحتل موقع الصدارة في نشر المعلومات، وفقا لإحصائيات رسمية.
وعلى هذا الصعيد المهم، فإنه خلال اجتماع الرئيس الأمريكي جو بايدن مع سبع شركات رائدة في مجال الذكاء الاصطناعي، أمثال: "أمازون"، "جوجل"، "ميتا"، و"مايكروسوفت"، شدد على أن هناك قلقا بشأن توسع الشركات في تطوير أدواته، ولا سيما فيما يتعلق بفكرة إمكانية انتشار المعلومات المضللة، وقال الرئيس الأمريكي بوضوح هذه المرة، "إن التهديدات الناشئة عن التقنيات الحديثة يمكن أن تشكل تهديدا على ديمقراطيتنا وقيمنا".
ويأتي هذا القلق المتصاعد من واشنطن مع اقتراب موعد الانتخابات الرئاسية 2024، والسؤال المطروح هنا: هل يمكن للذكاء الاصطناعي أن يغير النتائج؟ لفهم الإجابة عن هذا السؤال، ومع ظهور صور على الإنترنت حول اتهام الرئيس السابق ترمب واعتقاله، بدت كأنها صور إخبارية، تم التأكيد على أنها مزيفة في وقت لاحق، وأنها أنشئت بوساطة هذا النظام التوليدي، إذ لا أحد يمكنه تحديد مدى قدرة هذه الأنظمة وتأثيرها في قرارات الإنسان العادي، فهي أصبحت قادرة بشكل مذهل على أن تفعل أي شيء سواء كان مقطع فيديو، أو كتابة مقال أو تقرير من كلمات محددة، ولا يتوافر لأي شخص القدرة على تمييز الحقيقي وما تم إنشاؤه بوساطة الذكاء الاصطناعي.
وإذا كانت الحالة هذه، فإن احتمالات تأثير الذكاء الاصطناعي في سير الانتخابات الأمريكية هو خطر حقيقي مقبل، ما لم يتم التصرف بشكل عاجل لمنح الإنسان العادي قدرة التمييز بين ما هو حقيقي وما هو من توليد هذه التقنية المخيفة.
وفي دراسة لشركة ماكينزي الاستشارية، التي راقبت على مدى عامين أثره في عديد من القطاعات الاقتصادية وما هو غير مألوف، إذ هو يجعل الأخطار تتجلى بطرق جديدة وصعبة، فعلى سبيل المثال، التحيز بين الموظفين الأفراد عند تقديم المشورة للمستهلكين واقعي ومرصود كخطر في بيئة الأعمال، لكن عندما يقدم الموظفون المشورة بناء على توصيات الذكاء الاصطناعي على أساس أن التقنية أكثر دقة ـ وإن كانت توصياته متحيزة أصلا ـ فإن النتيجة أن المؤسسة ـ واقعا ـ أصبحت كلها متحيزة في عملية صنع القرار لكن بشكل منظم ومنتظم، وفي عالم مثل هذا إن تم تأكيد بعض الاستنتاجات التي يتوصل إليها بمقطع فيديو أو تصريح صحافي لرئيس تنفيذي حول أن مستوى أرباح الشركة قد انخفضت، وإذا تم تسريب كل هذا للأسواق فإن الخسائر ستكون فوق التوقعات، ومثل ذلك في قطاعات العقار والأسهم والدواء، كل ذلك يحدث إذا لم يستطع الإنسان التمييز بين ما هو حقيقي حدث في الواقع وبين ما هو من إنتاج هذه التقنيات.
وهناك خطر آخر لا يقل عن سابقه، وهو الخطر الكامن خلف نتيجة تصورات الذكاء الاصطناعي، كيف يمكن مقاومة الثقة والاعتماد المطلق على هذه التقنيات، فقد تعود الإنسان منذ اكتشاف الحاسب الآلي على عدم مناقشة مخرجاته، فإذا لم نعد ندرك ما المدخلات أصلا، فجميع أنظمته الحالية تفتقد للشفافية، خاصة في نماذج التعلم العميق المعقدة التي لا يمكن تفسيرها، وهذا الغموض يجعل من عملية تقييم القرار الذي وصل إليه عملية شبه مستحيلة، لذلك كانت الخطوة الأساس التي اتخذها البيت الأبيض هي أن تلتزم الشركات التي تقود هذه التقنية اليوم بمستويات عالية من إدارة المخاطر، خاصة في مجال التمييز بين ما هو حقيقي وبين ما هو توليدي، وأن يتم اكتشاف وتحديد مصدر معلوماته، وبالفعل وقعت هذه الشركات السبع اتفاقية "قد تكون تاريخية" من أجل اختبار أمان هذه الأنظمة والتأكد من أن الأشخاص قادرون على اكتشافه من خلال تطبيق العلامات المائية، والإبلاغ علنا عن قدراته وقيوده على أساس منتظم، كما تعهدوا بالبحث في الأخطار، مثل: التحيز والتمييز وانتهاك الخصوصية. فالشفافية اليوم هي أكثر ما يفتقده، خاصة فيما يتعلق بمصدر معلوماته، ولهذا تم التركيز عليها بشكل أساس.
ولمعالجة هذه الأخطار، خاصة قبل الانتخابات الرئاسية، طورت شركة OpenAI طريقة لتمييز بين ما هو حقيقي وما هو توليدي، وتعيين مصدر المعلومات التي يستخدمها، وهذه الطريقة تسمى بالعلامة المائية watermark، العلامة المائية ـ كما هو معروف ـ هي شعار شبه شفاف مضمن في صورة، وقد أكد البيت الأبيض أن الهدف منها هو أن يكون من السهل على الناس معرفة المحتوى الذي تم إنشاؤه بوساطة الذكاء الاصطناعي، وهذا الاتجاه يؤيده مفوض الاتحاد الأوروبي عندما كتب في تغريدة بهذا الشأن بعد مفاوضات مع شركة OpenAI: "نتطلع إلى متابعة مناقشاتنا ـ ولا سيما بشأن وضع العلامات المائية"، لكن إذا كان هذا ممكنا في المحتوى الذي يتضمن صورا أو فيديو، فكيف يمكن ذلك في النصوص.
وتشير تقارير إلى أن عالم كمبيوتر يدعى سكوت آرونسون في شركة OpenAI ذكر في حزيران (يونيو) 2022، أن هناك فرقا بين النمط العشوائي الذي يشكل اختيار البشر للكلمات والنمط العشوائي الذي تستخدمه الآلة، فالذكاء الاصطناعي القائم على النص يسعى لإنتاج الكلمة التالية الأكثر منطقية في الجملة، فمثلا، في جمله تبدأ "يمكن للطالب في المدرسة"، فإن الذكاء الاصطناعي يتنبأ بطريقة معينة "تسيطر عليها الشركة المصممة له" بأن الكلمة التالية يجب أن تكون "تعلم" أو "فهم"، وهذه الاحتمالات من النص الأساس الذي تم التدرب عليه، وهذه النمطية يمكن توقعها، وهي وفقا لرأي العالم آرونسون تختلف عن طريقة اختيار الإنسان العادي لكلماته، وعلى هذا يمكن تحديد النص الذي أنتجته الآلة وتحديده بعلامة مائية، بهذا فقط يمكن للإنسان العادي معرفة النص الحقيقي من النص التوليدي، ويمكن تحديد درجة تحيز الآلة، وما مصادرها الأساسية.
لكن هل هذا كاف؟ الأرجح أن الانتخابات الأمريكية المقبلة هي المحك الحقيقي لمدى خطورته وتطويعه، ومع ذلك تظل الأسئلة قائمة بشأن مدى مصداقية الشركات المصنعة للعلامات المائية واستخداماتها.