التقنية تختبر متانة الأخلاق
صدق الوصف القائل "إن التقنيات المعاصرة باتت مكانا لكشف أخلاقيات المجتمع وزيف الادعاء بالفضيلة والكمال"، فالأيدي الخاطئة التي أساءت استخدام التقنية ومنصات التواصل وضعت العالم أمام اختبار حقيقي، وأظهرت الأخلاقيات هشة، وأوهن من بيت العنكبوت.
ما المعلومات التي يمكن نشرها وتلك التي تعد خاصة غير قابلة للنشر؟ سؤال تكرر كثيرا في الأيام الأخيرة، بعد أن كشفت التقنيات الحديثة الأسرار المختبئة والمستور، وأثرت بشكل كبير في القيم الأخلاقية، على حد تعبير تقارير متخصصة، التي أشارت أيضا إلى تجاهل التقنية فئات وشرائح من المجتمع، ونشرها الكراهية والتحيز، وتزييف الحقائق، ومساهمتها في تكبير الفجوة بين الأغنياء والفقراء.
لا تصدق
تغلبت التقنيات الحديثة وتلك التي تستعين بالذكاء الاصطناعي على كثير من تحديات الحياة، لكنها كشفت النقاب عن هشاشة المنظومة الأخلاقية لكثير من المجتمعات، التي تعمد في بعض الأحيان إلى تزييف الحقائق، وإساءة الأدب، وإيقاع المستخدمين في مستنقع الإشاعات.
وفي دلالة على ما يمكن أن تقوم به التقنية، أجرت سيدة عربية تجربة مثيرة على منصات التواصل الاجتماعي، حينما استعانت بالحاسوب لتجميل وجهها، بحيث تبدو في عمر الـ25، في حين كتبت معلقة على الفيديو الذي ظهرت فيه بعمرها الحقيقي وهو 52 عاما، وما بين مصدق ومشكك، أكدت أنها فعلا تدخل عامها الـ52، لتصل بالمشاهد إلى رسالة مفادها "لا تصدق كل ما تراه"، أو بمعنى آخر "صدق نصف ما ترى".
وتكشف التجربة أنه لا يمكن التحكم بأي حال من الأحوال في المحتوى المقدم عبر التقنيات الحديثة، وإن وضعت القوانين والمواثيق التي تؤطر العلاقة مع التقنية ومنصات التواصل، وحتى إن استعين بتقنيات الذكاء الاصطناعي، التي لا يمكن لها أن تكشف عن كل الحقائق، أو توقف الإساءات وادعاء الكمال مثلا، ما يستدعي تدخل المستخدمين في غربلة المعلومات، وإخضاعها للتجربة والمنطق.
كما تشير دراسات إلى أن سوء استخدام التقنية هو ما أسهم في تردد بعض الأفراد في تلقي لقاح فيروس كورونا، بعد أن خرج مستخدمون لمنصات التواصل بمنشورات تبث إشاعات حول المخاطر الطبية للقاح، والمؤامرات التي تحاك من خلاله، والأمراض التي تنتظر متلقيه، ورغم نفي منظمة الصحة العالمية والهيئات المرجعية ووزارات الصحة حول العالم، أثرت الإشاعة بشكل أو بآخر في بعض أفراد المجتمع، وجعلتهم يشككون حتى في المسلمات الصحية.
وتجدد هذه التجارب الجدل الدائر حاليا حول التقنية، وإذا ما وقعت بالأيدي الخطأ، دون أن يخفي ذلك حقيقة أن منصات التواصل وتقنياتها تتغذى على هذه "الأخطاء"، التي لا تحكمها أي أطر أخلاقية أو معايير ومواثيق، وتعود في مرجعيتها إلى ضمير المستخدم وحده.
صدمة أخلاقية
في مسار تقني آخر، هو الألعاب الإلكترونية التي توفرها التقنيات الحديثة، تروي موسوعة ستانفورد للفلسفة في تقرير عن تقنية المعلومات والقيم الأخلاقية أن أول صدمة أخلاقية يواجهها الشخص عند التفكير في ألعاب الإنترنت هي ميلها إلى تصوير العنف والعنصرية، ويزعم عديد من التقارير الإخبارية وجود علاقة سببية بين العنف في ألعاب الكمبيوتر والعنف الحقيقي.
وحول ذلك يتساءل علماء الاجتماع حول علاقة الأخلاق بالألعاب: هل تؤثر اللعبة في أخلاق الشخص؟
ينتقد كريستوفر فرجسون عالم الاجتماع بقوة الادعاء بأن العنف في ألعاب الفيديو له علاقة سببية بالعنف الفعلي، فيما يرى مارك كواكلبيرج الفيلسوف في عالم التكنولوجيا أن هذه العلاقة ضعيفة، وأن القضية الحقيقية المطروحة هي تأثير هذه الألعاب في الشخصية الأخلاقية للشخص، ويرى أن ألعاب الكمبيوتر يمكن تصميمها لتعزيز فضائل مثل التعاطف والتطور الأخلاقي العالمي، وبالتالي هو لا يعارض جميع الألعاب، فقط تلك التي يمنع فيها العنف النمو الأخلاقي.
جوجل في صراع مع الأخلاق
لم يكن مستخدمو التقنية هم فقط في صراع مع القيم الأخلاقية، إنما محرك البحث العملاق "جوجل" كان طرفا في هذا الصراع، حيث أثار فصل الشركة تيمنت جيبرو المديرة والمتخصصة في مجال أخلاقيات الذكاء الاصطناعي من وظيفتها تساؤلات وجدلا كبيرا.
ففي ديسمبر 2020، حذرت المديرة من المخاطر الأخلاقية للنماذج اللغوية الكبيرة التي تشكل أساس عمل محرك البحث وأعماله، وأشارت إلى أن هذه النماذج تحلل كميات هائلة من النصوص على الإنترنت، ومعظمها قادم من العالم الغربي، وينطوي هذا التحيز الجغرافي من بين أمور أخرى، على خطر أن تنتقل اللغة العنصرية والمتحيزة والمسيئة من "الويب" إلى بيانات الشركة، وهكذا يعاد إنتاجها بواسطة نظام الذكاء الاصطناعي، وكان رد فعل "جوجل" هو توجيه طلب إلى جيبرو، بسحب دراستها، وعندما رفضت ذلك، فصلوها من العمل.
ويثير هذا التصرف تساؤلات حول إذا ما كان احترام القواعد الأخلاقية للذكاء الاصطناعي يندرج حقا ضمن أولويات الشركات؟
تعلق آنا جوبين الباحثة في معهد هومبولت للإنترنت والمجتمع في برلين وخبيرة في أخلاقيات التكنولوجيا الجديدة على ذلك بأن الذكاء الاصطناعي قد يتحول إلى "قوة غير أخلاقية"، حيث لا يمكن إخفاء التعطش إلى الأعمال التجارية التي هي في الواقع في صراع مفتوح مع المبادئ الأخلاقية.
توقعات مستقبلية
في تقرير حديث صادر عن مركز استشراف التقنية في وزارة الاتصالات وتقنية المعلومات، يكشف المركز عن ثلاثة توقعات مستقبلية تتعلق بالقيم الأخلاقية والتقنية، منها المواجهة بين أخلاقيات المجتمع والمحتوى الرقمي المعروض، حيث يستشهد التقرير بسن مجموعة من الدول قوانين تحظر بعض أنواع المحتوى، على غرار القانون الألماني الذي يمنع نشر الكراهية، وكذلك فرنسا وتركيا وروسيا وفنزويلا، حيث تتوقع أن تكون هناك مواجهة بين شرائح من المجتمع ومنصات الترفيه العالمية، كردة فعل على المحتوى الذي يعرض عليها، وسيكون أساس المواجهة الاختلاف بين الثقافات، وستميل طبيعة النقاش إلى تقنين التقنية بدلا من منعها.
وأشارت إلى إعلان منظمة "كومون سينس ميديا" عن حملة تطالب المؤثرين والقياديين في عالم التقنية بالضغط على شركات التقنية الكبرى ومساءلتهم على المعلومات المضللة المنشورة على منصاتهم، فيما قامت هيئة محلفين كبرى في ولاية تكساس باتهام منصة "نتفليكس" ببث محتوى مناف للآداب، وفي الوقت نفسه صرح ثلاثة من أعضاء مجلس الشيوخ الأمريكي بأن المحتوى يستغل الأطفال بشكل غير لائق.
وتطرق التقرير الذي حمل عنوان "الاستشراف السريع.. أخلاقيات التقنية" إلى توقع مستقبلي ثان، يتناول الذكاء الاصطناعي كتقنية أخلاقية صديقة البشر، بعد أن قدم معهد مونتريال لأخلاقيات الذكاء الاصطناعي فرصة المشاركة في اجتماعات ومناقشات لحلول هذا النوع من الذكاء، فيما لا تزال أطر أخلاقيات الذكاء الاصطناعي ذاتها متحيزة، بسبب اقتصار المتحكمين في تحديد مفاهيم الأخلاقيات على فئة محدودة من المجتمع العالمي، حيث توصي الوزارة بأن يتم تحديد إطار لأخلاقيات الذكاء الاصطناعي في المملكة، من قبل هيئة البيانات والذكاء الاصطناعي، لتكون مرجعا للجميع، يشارك في دفع عجلة التنمية.
أما التوقع المستقبلي الثالث فكان يتمحور حول الأثر الاجتماعي للتقنية، الذي سيكون مقدما على خصوصية البيانات، ففي الوقت الذي أثبتت فيه البيانات فاعليتها في مكافحة الأوبئة وتتبع الاتصال والتعرف على الوجه وإنقاذ حياة البشر، أصبح مفهوم الأثر الاجتماعي مقدما على خصوصية البيانات، حيث اتهمت الشركات الكبرى باستغلال البيانات بشكل غير سليم.