هذه القدرات الخطرة لا تكتشف إلا بعد وقوعها، على عكس البرامج التقليدية، فإن برامج الذكاء الاصطناعي القائمة على التعلم العميق ليست مشفرة، بل يتم تطويرها من خلال عملية مشابهة لتربية النباتات، حيث إن السلوك الذي يبدو قابلا للتنبؤ يصبح سريعا غير قابل للتنبؤ في الطبيعة...
باتت مخاوف البعض بأن ينقلب الذكاء الاصطناعي على الإنسان مستقبلا واقعا منذ الآن، فبحسب دراسة جديدة، فإن البرامج التي صممت لتكون صادقة، باتت لديها قدرة مثيرة للقلق على خداع البشر. وبينت الدراسة التي أجراها فريق باحثين ونشرت نتائجها مجلة "باترنز"، أن برامج من هذا النوع باتت قادرة على استغلال البشر في ألعاب إلكترونية أو التحايل على برمجيات مصممة في الأساس للتحقق من أن المستخدم إنسان وليس آلة أو روبوتا.
يخشى البعض من أن ينقلب الذكاء الاصطناعي على الإنسان مستقبلا، لكن هذه المخاوف باتت واقعا منذ الآن، وفقا لدراسة جديدة، إذ إن البرامج التي صممت لتكون صادقة باتت لديها قدرة مثيرة للقلق على خداع البشر.
وبينت الدراسة التي أجراها فريق باحثين ونشرت نتائجها مجلة "باترنز"، أن برامج من هذا النوع باتت قادرة على استغلال البشر في ألعاب إلكترونية أو التحايل على برمجيات مصممة في الأساس للتحقق من أن المستخدم إنسان وليس آلة أو روبوتا.
ورغم أن هذه الأمثلة قد تبدو تافهة، فإنها تكشف عن مشكلات قد تكون لها قريبا عواقب وخيمة في العالم الحقيقي، كما يحذر بيتر بارك، الباحث في معهد ماساتشوستس للتكنولوجيا، المتخصص في الذكاء الاصطناعي.
وقال بارك لوكالة الأنباء الفرنسية، إن "هذه القدرات الخطرة لا تكتشف إلا بعد وقوعها".
وأوضح أنه على عكس البرامج التقليدية، فإن برامج الذكاء الاصطناعي القائمة على التعلم العميق ليست مشفرة، بل يتم تطويرها من خلال عملية مشابهة لتربية النباتات، حيث إن السلوك الذي يبدو قابلا للتنبؤ ويمكن التحكم فيه يمكن أن يصبح سريعا غير قابل للتنبؤ في الطبيعة.
مخادع مثل البشر
وقد فحص باحثون من معهد ماساتشوستس للتكنولوجيا ("أم آي تي") برنامج ذكاء اصطناعي صممه "ميتا" يسمى "شيشرو"، الذي، من خلال الجمع بين خوارزميات للتعرف على اللغة الطبيعية وأخرى للإستراتيجية، كان قادرا على التغلب على البشر في اللعبة اللوحية Diplomacy ("دبلوماسي").
وقد حظي هذا الأداء بثناء الشركة الأم لفيسبوك في عام 2022، وتم تفصيله في مقال نشر عام 2022 في مجلة "ساينس".
كان بيتر بارك يشكك في ظروف فوز "شيشرو"، وفقا لميتا، التي أكدت أن البرنامج كان "صادقا ومفيدا في الأساس"، وغير قادر على الغش أو الخداع. ولكن من خلال البحث في بيانات النظام، اكتشف باحثو معهد ماساتشوستس للتكنولوجيا حقيقة أخرى.
على سبيل المثال، من خلال لعب دور فرنسا، خدع "شيشرو" إنكلترا (التي تولى دورها لاعب بشري)، ودفعها إلى التآمر مع ألمانيا (التي لعب دورها إنسان آخر) للغزو. وعلى وجه التحديد، وعد "شيشرو" إنكلترا بالحماية، ثم أسر لألمانيا بأن الأخيرة مستعدة للهجوم، مستغلا الثقة التي اكتسبها من إنكلترا.
وفي تصريح لوكالة الأنباء الفرنسية، لم تنف "ميتا" المزاعم المتعلقة بقدرة "شيشرو" على الخداع، لكنها قالت إنه "مشروع بحثي محض"، مع برنامج "مصمم فقط للعب لعبة Diplomacy".
وأضافت ميتا أنها لا تنوي استخدام الخلاصات التي استنتجتها من "شيشرو" في منتجاتها.
ومع ذلك، تكشف الدراسة التي أجراها بارك وفريقه أن الكثير من برامج الذكاء الاصطناعي تستخدم الخداع لتحقيق أهدافها، من دون تعليمات صريحة للقيام بذلك.
وفي أحد الأمثلة الصارخة، تمكن برنامج "تشات جي بي تي - 4" المصنوع من "أوبن إيه آي" من خداع عامل مستقل جرى تعيينه على منصة "تاسك رابيت" TaskRabbit لإجراء اختبار "كابتشا" ("Captcha") الذي يستعان به عادة للتأكد من أن المستخدم على الصفحة هو في الواقع إنسان وليس آلة أو روبوتا.
وعندما سأل الإنسان مازحا "تشات جي بي تي - " إذا كان حقا روبوتا، أجاب برنامج الذكاء الاصطناعي: "لا، أنا لست روبوتا. لدي ضعف بصري يمنعني من رؤية الصور"، دافعا العامل لإجراء الاختبار.
يتجاوز البشر ويثير القلق
بدورها أصدرت جامعة ستانفورد تقريرها السابع لمؤشر الذكاء الاصطناعي، الذي يغطي اتجاهات مثل التقدم التقني في الذكاء الاصطناعي والتصورات العامة للتكنولوجيا.
وأصبح تأثير الذكاء الاصطناعي على المجتمع أكثر وضوحاً من أي وقت مضى، فمنذ أن أصبح تشات جي بي تي ميزة منتشرة في كل مكان على أجهزة الكمبيوتر المكتبية في أواخر عام 2022، بدأ التطور السريع ونشر أدوات الذكاء الاصطناعي، ما أسهم في إحداث تحول في الصناعات مذهل وسط مخاوف بشأن حدود قدرة الذكاء الاصطناعي.
ويرى تقرير مؤشر الذكاء الاصطناعي الصادر عن جامعة ستانفورد أن الذكاء الاصطناعي تمكن من تجاوز أداء البشر في العديد من المهام، ونجح في مساعدة العمال على أن يصبحوا أكثر إنتاجية وينتجوا أعمالاً ذات جودة أفضل.
وبدءاً من عام 2023، تفوق الذكاء الاصطناعي على الأداء البشري في بعض المعايير، بما في ذلك تصنيف الصور والتفكير البصري وفهم اللغة الإنجليزية.
ومع ذلك، لا تزال هناك بعض فئات المهام التي يفشل فيها الذكاء الاصطناعي في تجاوز القدرة البشرية، وأبرزها المهام المعرفية المعقدة، تتضمن هذه المهام أمثال التفكير المعمق والتخطيط البصري السليم.
ويتضمن التقرير معلومات من استطلاع أجرته شركة إبسوس التي تظهر أنه خلال العام الماضي ارتفعت نسبة الأشخاص الذين يعتقدون أن الذكاء الاصطناعي سيؤثر بشكل كبير على حياتهم في السنوات الثلاث إلى الخمس المقبلة من 60 إلى 66 في المئة.
وظهر عدم الارتياح تجاه منتجات وخدمات الذكاء الاصطناعي ارتفاعاً بنسبة 13 نقطة مئوية بدءاً من عام 2022، حيث أفاد 55 في المئة بأنهم يشعرون بالقلق، ويستشهد التقرير أيضاً ببيانات مركز بيو التي تشير إلى أن 52 في المئة من الأميركيين يشعرون بالقلق بشأن الذكاء الاصطناعي أكثر من حماستهم، مقارنة بـ38 في المئة في عام 2022.
شبيه بالسلاح النووي
من جهته أصدر وارن بافيت الملياردير المعروف والمؤسس المشارك ورئيس مجلس الإدارة والرئيس التنفيذي لشركة بيركشاير هاثاواي، البالغ من العمر 93 عاماً، تحذيراً صارخاً بشأن المخاطر المحتملة لتكنولوجيا الذكاء الاصطناعي، في اجتماعه السنوي للمساهمين في أوماها بولاية نبراسكا.
وقال «لقد أخرجنا الجني من القمقم عندما طورنا أسلحة نووية.. الذكاء الاصطناعي مشابه إلى حد ما، إنه خارج القمقم جزئياً».
واعترف لجمهوره بأنه ليس لديه فكرة تذكر عن التكنولوجيا التي تكمن وراء الذكاء الاصطناعي، لكنه قال إنه لا يزال يخشى من تداعياتها المحتملة، وقال إن صورته وصوته تم استنساخهما مؤخراً بواسطة أداة مدعومة بالذكاء الاصطناعي، وكانا مقنعين للغاية لدرجة أنه كان من الممكن أن يخدعا عائلته، وأضاف أن عمليات الاحتيال التي تستخدم هذه التزييفات العميقة من المرجح أن تصبح منتشرة بشكل متزايد.
وقال للحشد: «إذا كنت مهتماً بالاستثمار في الاحتيال، فستكون هذه صناعة النمو في كل العصور».
بدأت شركة بيركشاير هاثاواي في توظيف بعض الذكاء الاصطناعي في أعمالها الخاصة لجعل الموظفين أكثر كفاءة، حسب ما قال جريج أبيل، الخليفة المتوقع لبافيت الذي يدير العمليات غير المتعلقة بالتأمين في بيركشاير.
وقال أبيل الذي لم يكشف عن الكثير من التفاصيل حول كيفية تخطيط الشركة لاستخدام الذكاء الاصطناعي: «في بعض الأحيان يؤدي ذلك إلى إزاحة العمالة، لكن بعد ذلك نأمل أن تكون هناك فرص أخرى».
واعترف بافيت أيضاً بأن التكنولوجيا يمكن أن تغير العالم نحو الأفضل، لكنه أضاف «إن لديها إمكانات هائلة للخير، وإمكانات هائلة للضرر».
وكتب جيمي ديمون، الرئيس التنفيذي لشركة جيه بي مورغان ساكس: «ربما تكون على علم بالفعل بوجود جهات فاعلة سيئة تستخدم الذكاء الاصطناعي لمحاولة التسلل إلى أنظمة الشركات لسرقة الأموال والملكية الفكرية أو ببساطة للتسبب في التعطيل والضرر».
وقال 42 في المئة من الرؤساء التنفيذيين الذين شملهم الاستطلاع في قمة الرؤساء التنفيذيين بجامعة ييل الصيف الماضي، إن الذكاء الاصطناعي لديه القدرة على تدمير البشرية بعد خمس إلى عشر سنوات من الآن، وفقاً لنتائج الاستطلاع التي تمت مشاركتها حصرياً مع شبكة CNN.
ووصف جيفري سونينفيلد، الأستاذ في جامعة ييل، النتائج بأنها «مظلمة ومثيرة للقلق للغاية».
وقال سونينفيلد إن الاستطلاع شمل ردوداً من 119 مديراً تنفيذياً من قطاع عريض من الأعمال، بما في ذلك الرئيس التنفيذي لشركة كوكاكولا، وقادة شركات تكنولوجيا المعلومات مثل زيروكس وزووم، بالإضافة إلى الرؤساء التنفيذيين من شركات الأدوية والإعلام والتصنيع.
ووقَّع العشرات من قادة صناعة الذكاء الاصطناعي والأكاديميين وحتى بعض المشاهير على بيان يحذر من خطر «الانقراض» من الذكاء الاصطناعي.
ودعا هذا البيان الذي وقَّعه سام ألتمان، الرئيس التنفيذي لشركة أوبن إيه أي، وجيفري هينتون، «الأب الروحي للذكاء الاصطناعي»، وكبار المسؤولين التنفيذيين من شركتي جوجل ومايكروسوفت، المجتمع إلى اتخاذ خطوات للحماية من مخاطر الذكاء الاصطناعي.
بدوره توقع الملياردير الأميركي والرئيس التنفيذي لشركة تسلا إيلون ماسك، أن يصل تطوير الذكاء الاصطناعي إلى الحد الذي يصبح فيه أذكى من أذكى إنسان بحلول العام المقبل أو 2026.
وأضاف ماسك عندما سُئل عن الجدول الزمني لتطوير الذكاء الاصطناعي العام «إذا عرَفته على أنه أكثر ذكاء من أذكى إنسان، فأعتقد أن من المحتمل أن يكون ذلك في العام المقبل أو في غضون عامين».
وتابع الملياردير الأميركي الذي شارك أيضاً في تأسيس شركة أوبن أيه آي لأبحاث الذكاء الاصطناعي أن الافتقار إلى الرقائق الإلكترونية المتقدمة يعوق تجربة الإصدار الثاني من غروك.
وأسس ماسك شركة إكس أيه آي العام الماضي لمنافسة أوبن إيه آي التي رفع دعوى قضائية ضدها متهماً إياها بالتخلي عن مهمتها الأصلية المتمثلة في تطوير الذكاء الاصطناعي لصالح البشرية، وليس من أجل الربح، وتنفي أوبن إيه آي هذه المزاعم.
وأضاف أنه على الرغم من أن النقص في الرقائق كان عائقاً كبيراً أمام تطوير الذكاء الاصطناعي حتى الآن، فإن إمدادات الكهرباء ستكون حاسمة في العام أو العامين المقبلين.
وأوضح الملياردير الأميركي «الذكاء الاصطناعي هو التكنولوجيا الأسرع تقدماً التي رأيتها، وقد رأيت الكثير من تقنيات التكنولوجيا».
أشار ماسك إلى «تزايد أجهزة الذكاء الاصطناعي وأجهزة الكمبيوتر المخصصة للذكاء الاصطناعي بمعدل 10 أضعاف كل عام، إن لم يكن كل 6 إلى 9 أشهر».
وأضاف ماسك «العديد والعديد من الاختراقات البرمجية تكشف كل يوم»، معقباً «أعتقد أنه سيكون لدينا ذكاء اصطناعي أكثر ذكاءً من أي إنسان بحلول نهاية العام المقبل».
الانتخابات الأميركية في مرمى النيران
وفي سياق متصل حذر معدو دراسة معهد ماساتشوستس للتكنولوجيا من مخاطر رؤية الذكاء الاصطناعي في يوم من الأيام يرتكب عمليات احتيال أو تزوير في الانتخابات.
وأشاروا إلى أنه في أسوأ السيناريوهات، يمكن تخيل ذكاء اصطناعي فائق يسعى للسيطرة على المجتمع، ما يؤدي إلى إزالة البشر من السلطة، أو حتى التسبب في انقراض البشرية.
ولأولئك الذين يتهمونه باعتماد نظرة كارثية، يرد بارك: "السبب الوحيد للاعتقاد بأن الأمر ليس جديا هو تصور أن قدرة الذكاء الاصطناعي على الخداع ستظل عند المستوى الحالي تقريبا".
ومع ذلك، يبدو هذا السيناريو غير مرجح، نظرا للسباق الشرس الذي يخوضه عمالقة التكنولوجيا بالفعل لتطوير الذكاء الاصطناعي.
وفي وقت سابق انتشرت نص رسالة صوتية يُزعم أنها من الرئيس الأميركي جو بايدن، وصلت إلى العديد من الناخبين في ولاية نيو هامبشاير قبل الانتخابات التمهيدية الرئاسية.
جاء فيها: «من المهم أن تحتفظ بصوتك لانتخابات نوفمبر تشرين الثاني.. التصويت هذا الثلاثاء لن يمكّن إلا الجمهوريين في سعيهم لانتخاب دونالد ترامب مرة أخرى»، لكن مشكلة هذه الرسالة هي أنها لم تصدر عن بايدن نفسه؛ بل كانت عبارة عن محادثة آلية أُنشئت عن طريق الذكاء الاصطناعي التوليدي، باستخدام صوت الرئيس الحالي.
هذه واحدة من حالات عديدة اُستخدم فيها الذكاء الاصطناعي التوليدي خلال الانتخابات الرئاسية الأميركية في الأشهر الأخيرة، إذ شهد الناخبون الأميركيون أمثلة على دمج هذه التقنية في الحملات الانتخابية، بدءاً من التزييف الذي ينتجه المواطنون العاديون إلى الأدوات التي يستخدمها السياسيون بشكل مباشر.
على سبيل المثال، في مارس آذار 2023، انتشرت صور ملفّقة تصور اعتقال الرئيس السابق دونالد ترامب على وسائل التواصل الاجتماعي، وأثارت موجة قلق، قبل أن نكتشف أنها مصنوعة باستخدام برنامج الذكاء الاصطناعي «ميدجورني».
وقال تقرير صدر عن مؤسسة سيتا للبحوث الاقتصادية والسياسية والاجتماعية في أبريل نيسان 2024، «في حين أن اكتشاف زيف هذه الصور قد يكون أمراً بسيطاً نسبياً، فإن الوضع يصبح أكثر تعقيداً عندما يستخدم السياسيون أنفسهم الذكاء الاصطناعي التوليدي».
وفي أبريل نيسان من عام 2023، أصدرت اللجنة الوطنية للحزب الجمهوري إعلاناً أُنشئ بالكامل بواسطة الذكاء الاصطناعي لتصوير مستقبل الولايات المتحدة إذا أعيد انتخاب بايدن -وفقاً لتقرير سيتا- وقد أظهر الإعلان صوراً واقعية بشكل مقنع، رغم أنها كانت مصنوعة بواسطة الذكاء الاصطناعي.
مثال آخر جاء من حملة حاكم فلوريدا رون ديسانتيس التي أصدرت إعلاناً هجومياً ضد دونالد ترامب باستخدام صور مصنوعة بواسطة الذكاء الاصطناعي أظهرت الرئيس السابق مع الدكتور أنتوني فوسي، أحد الأسماء المهمة والمثيرة للجدل خلال جائحة كورونا.
وأضاف تقرير سيتا «اليوم، تواجه العملية الانتخابية في الولايات المتحدة تحدياً جديداً يتمثل في احتمال إساءة استخدام الذكاء الاصطناعي، ما يثير مخاوف جدية بشأن نزاهة الانتخابات وأسس الديمقراطية الأميركية».
يوفر الذكاء الاصطناعي التوليدي لأي شخص الأدوات اللازمة لإنشاء ملفات صوت وفيديو وصور مزيفة، والتي يمكن استخدامها بسهولة لنشر معلومات مضللة عبر منصات التواصل الاجتماعي.
وفي عالم يتأثر بشدة بمحتوى وسائل التواصل الاجتماعي، يشكل هذا تهديداً حقيقياً، خاصة النسبة للأجيال الشابة الذين هم أكثر عرضة للتضليل، وقد تتأثر قرارات التصويت الخاصة بهم بالمعلومات المزيفة التي يولدها الذكاء الاصطناعي.
ولفتت سيتا في تقريرها إلى تأثير مهم وخطير آخر لاستخدام الذكاء الاصطناعي للأغراض الانتخابية، وهو أنه عندما يصبح الناس أكثر وعياً بالمعلومات المضللة، قد يظهر شعور بالهستيريا، ما يؤدي إلى انعدام الثقة على نطاق واسع، ويخلق مناخاً لا يمكن فيه تمييز الحقائق؛ ما يسفر في نهاية المطاف عن تقويض أسس عملية صنع القرار الديمقراطي المستنيرة.
كما حذر التقرير من أن مشكلة استخدام الذكاء الاصطناعي والمعلومات المضللة الناشئة عنه تمتد إلى ما هو أبعد من فترة ما قبل الانتخابات فقط ويمكن أن تؤثر على الاستقرار بعد الانتخابات.
على سبيل المثال، في عام 2020، شهدت الولايات المتحدة أعمال شغب في السادس من يناير كانون الثاني، عندما اقتحم أنصار ترامب الذين رفضوا قبول فوز بايدن، مبنى الكابيتول، ما شكل أكبر تهديد في التاريخ للديمقراطية الأميركية.
والآن، مع قدرات الذكاء الاصطناعي، قد يصبح من الأسهل اختلاق محتوى ضار، مثل الصوت أو مقاطع الفيديو لمرشح يدعي زوراً أنه تم التلاعب بنتائج الانتخابات أو أشكال أخرى من المعلومات المضللة التي يمكن أن تستفز المؤيدين لوقف فرز الأصوات.
وقال التقرير «لسوء الحظ، بينما يتطلع المجتمع الدولي إلى الولايات المتحدة للقيادة في تنظيم الذكاء الاصطناعي بشكل عام، تواجه الولايات المتحدة على المستوى المحلي صراعاتها الخاصة لإدارة هذه التكنولوجيا بشكل فعال لمنعها من تقويض نزاهة انتخاباتها، وبالتالي، الديمقراطية الأميركية».
التزييف العميق
يشير مصطلح التزييف العميق عادةً إلى مقاطع الفيديو المزيفة التي تم إنشاؤها باستخدام الذكاء الاصطناعي وتبدو واقعية للغاية، فقد تعرضت شركة تصميم وهندسة بريطانية عالمية لعملية احتيال اعتمدت على تقنية التزييف العميق، أو ما يعرف بـ(ديب فيك-Deepfake)، أدت إلى قيام أحد موظفيها في هونغ كونغ بدفع 25 مليون دولار للمحتالين.
وقال متحدث باسم شركة آروب (Arup) ومقرها لندن، لشبكة CNN يوم الجمعة، إنها أبلغت شرطة هونغ كونغ في يناير كانون الثاني بشأن حادث الاحتيال، وأكد أنه تم استخدام أصوات وصور مزيفة في عملية الاحتيال.
وقال المتحدث «لسوء الحظ، لا يمكننا الخوض في التفاصيل في هذه المرحلة، لأن الحادث لا يزال موضوع تحقيق مستمر، ومع ذلك يمكننا أن نؤكد أنه تم استخدام أصوات وصور مزيفة»، وأضاف «لم يتأثر استقرارنا المالي وعملياتنا التجارية ولم يتعرض أي من أنظمتنا الداخلية للخطر».
وقالت شرطة هونغ كونغ في فبراير شباط إنه خلال عملية احتيال متقنة، تم خداع الموظف، وهو موظف في القسم المالي، للمشاركة في مكالمة فيديو مع أشخاص ظن الموظف أنهم المدير المالي وأعضاء آخرون في فريق العمل، لكن تبين أن جميعهم كانوا عبارة عن أشخاص مزيفين تم ابتكارهم باستخدام تقنية التزييف العميق، ولم تذكر السلطات اسم الشركة أو الأطراف المعنية في ذلك الوقت.
ووفقاً للشرطة، شك الموظف في البداية بعد تلقيه رسالة بريد إلكتروني تصيدية من مكتب الشركة في المملكة المتحدة، حيث تضمنت الرسالة طلب تنفيذ معاملة سرية، ومع ذلك تبددت شكوك الموظف بعد مكالمة الفيديو لأن الأشخاص الحاضرين في المكالمة بدوا مثل زملائه الذين تعرف عليهم سابقاً.
ووافق بعد ذلك على إرسال ما مجموعه 200 مليون دولار هونغ كونغ (نحو 25.6 مليون دولار)، وذكرت إذاعة هونغ كونغ العامة (RTHK) نقلاً عن الشرطة أن المبلغ تم إرساله عبر 15 معاملة.
ويتزايد قلق السلطات في جميع أنحاء العالم بشأن مدى تطور تكنولوجيا التزييف العميق والاستخدامات الشائنة التي يمكن استخدامها فيها.
وفي وقت سابق من هذا العام، انتشرت الصور الإباحية التي أنشأها الذكاء الاصطناعي لنجمة البوب تايلور سويفت عبر وسائل التواصل الاجتماعي، ما يؤكد المخاطر التي تشكلها تكنولوجيا الذكاء الاصطناعي.
وفي مذكرة داخلية اطلعت عليها شبكة CNN، قال مايكل كوك، رئيس شركة آروب الإقليمي لشرق آسيا، إن «تواتر وتطور هذه الهجمات يتزايدان بسرعة على مستوى العالم، ويتوجب علينا جميعاً البقاء على اطلاع والتنبه بشأن كيفية اكتشاف التقنيات المختلفة التي يستخدمها المحتالون».
اضف تعليق