مع تحول تركيز العالم إلى المعلومات المضللة والتلاعب والدعاية الصريحة قبل الانتخابات الرئاسية الأمريكية في عام 2024، فإننا نعلم أن الديمقراطية تعاني من مشكلة الذكاء الاصطناعي، لكننا نتعلم أن الذكاء الاصطناعي يعاني من مشكلة تتعلق بالديمقراطية أيضًا، ويجب معالجة كلا التحديين من أجل الحكم الديمقراطي والحماية العامة...
مع تحول تركيز العالم إلى المعلومات المضللة والتلاعب والدعاية الصريحة قبل الانتخابات الرئاسية الأمريكية في عام 2024، فإننا نعلم أن الديمقراطية تعاني من مشكلة الذكاء الاصطناعي. لكننا نتعلم أن الذكاء الاصطناعي يعاني من مشكلة تتعلق بالديمقراطية أيضًا. ويجب معالجة كلا التحديين من أجل الحكم الديمقراطي والحماية العامة.
تسيطر ثلاث شركات فقط من شركات التكنولوجيا الكبرى (مايكروسوفت، وجوجل، وأمازون) على حوالي ثلثي السوق العالمية لموارد الحوسبة السحابية المستخدمة لتدريب ونشر نماذج الذكاء الاصطناعي. لديهم الكثير من مواهب الذكاء الاصطناعي، والقدرة على الابتكار على نطاق واسع، ولا يواجهون سوى القليل من اللوائح العامة لمنتجاتهم وأنشطتهم.
وتعد السيطرة المركزية المتزايدة على الذكاء الاصطناعي علامة مشؤومة على التطور المشترك للديمقراطية والتكنولوجيا. عندما يوجه مليارديرات وشركات التكنولوجيا الذكاء الاصطناعي، نحصل على ذكاء اصطناعي يميل إلى عكس مصالح مليارديرات وشركات التكنولوجيا، بدلا من عامة الناس أو المستهلكين العاديين.
ومن أجل إفادة المجتمع ككل، نحتاج أيضًا إلى ذكاء اصطناعي عام قوي كثقل موازن للذكاء الاصطناعي في الشركات، بالإضافة إلى مؤسسات ديمقراطية أقوى تحكم الذكاء الاصطناعي بالكامل.
أحد النماذج للقيام بذلك هو خيار الذكاء الاصطناعي العام، وهو ما يعني أنظمة الذكاء الاصطناعي مثل النماذج التأسيسية للغات الكبيرة المصممة لتعزيز المصلحة العامة. ومثل الطرق العامة ونظام البريد الفيدرالي، يمكن لخيار الذكاء الاصطناعي العام أن يضمن الوصول الشامل إلى هذه التكنولوجيا التحويلية ويضع معيارا ضمنيا يجب أن تتجاوزه الخدمات الخاصة حتى تتمكن من المنافسة.
ومن شأن النماذج العامة والبنية الأساسية الحاسوبية المتاحة على نطاق واسع أن تعود بفوائد عديدة على الولايات المتحدة والمجتمع الأوسع. وسوف توفر آلية للمدخلات العامة والإشراف على المسائل الأخلاقية الحاسمة التي تواجه تطوير الذكاء الاصطناعي، مثل ما إذا كان سيتم دمج الأعمال المحمية بحقوق الطبع والنشر في التدريب النموذجي وكيفية ذلك، وكيفية توزيع الوصول إلى المستخدمين الخاصين عندما يفوق الطلب قدرة الحوسبة السحابية، وكيفية الوصول إلى الترخيص للتطبيقات الحساسة التي تتراوح بين الشرطة والاستخدام الطبي. وهذا من شأنه أن يكون بمثابة منصة مفتوحة للابتكار، وعلى رأسها يمكن للباحثين والشركات الصغيرة - فضلا عن الشركات الكبرى - بناء التطبيقات والتجارب.
تطوير الذكاء الاصطناعي أكثر ديمقراطية
إن إصدارات الذكاء الاصطناعي العام، المشابهة لما نقترحه هنا، ليست غير مسبوقة. لقد ابتكرت تايوان، الرائدة في مجال الذكاء الاصطناعي العالمي، في كل من التنمية العامة وحوكمة الذكاء الاصطناعي. استثمرت الحكومة التايوانية أكثر من 7 ملايين دولار في تطوير نموذجها الخاص باللغة الكبيرة بهدف مواجهة نماذج الذكاء الاصطناعي التي طورتها الشركات الصينية. في سعيها لجعل "تطوير الذكاء الاصطناعي أكثر ديمقراطية"، تعاونت وزيرة الشؤون الرقمية التايوانية، أودري تانغ، مع مشروع الذكاء الجماعي لتقديم تجميعات المحاذاة التي ستسمح بالتعاون العام مع الشركات التي تعمل على تطوير الذكاء الاصطناعي، مثل OpenAI وAnthropic. يُطلب من المواطنين العاديين إبداء رأيهم في القضايا المتعلقة بالذكاء الاصطناعي من خلال روبوتات الدردشة الخاصة بالذكاء الاصطناعي، والتي، كما يقول تانغ ، تجعل الأمر "لا يقتصر على عدد قليل من المهندسين في أفضل المختبرات الذين يقررون كيف يجب أن يتصرفوا، بل الأشخاص أنفسهم".
إن أي شكل مختلف من هذا الخيار العام للذكاء الاصطناعي، والذي تديره هيئة عامة شفافة وخاضعة للمساءلة، من شأنه أن يوفر ضمانات أكبر حول توافر تكنولوجيا الذكاء الاصطناعي
وإنصافها واستدامتها لكل المجتمع مقارنة بما قد يقدمه تطوير الذكاء الاصطناعي الخاص حصريًا.
يعد تدريب نماذج الذكاء الاصطناعي عملاً معقدًا يتطلب خبرة فنية كبيرة؛ فرق كبيرة ومنسقة بشكل جيد؛ وثقة كبيرة للعمل من أجل المصلحة العامة بحسن نية. على الرغم من أن انتقاد الحكومة الكبيرة قد يكون شائعًا، إلا أن هذه كلها معايير تتمتع فيها البيروقراطية الفيدرالية بسجل حافل، وأحيانًا متفوق على الشركات الأمريكية.
ففي نهاية المطاف، فإن بعض المشاريع الأكثر تطوراً من الناحية التكنولوجية في العالم، سواء كانت تدور حول مراصد فيزيائية فلكية، أو أسلحة نووية، أو مصادمات الجسيمات، تديرها وكالات فيدرالية أمريكية. وفي حين كانت هناك انتكاسات وتأخيرات كبيرة في العديد من هذه المشاريع - تكلفة تلسكوب ويب الفضائي مليارات الدولارات وعقود من الوقت أكثر مما كان مخططا له في الأصل - فإن الشركات الخاصة تعاني من هذه الإخفاقات أيضا. وعند التعامل مع التكنولوجيا عالية المخاطر، فإن هذه التأخيرات ليست بالضرورة غير متوقعة.
ونظراً للإرادة السياسية والاستثمار المالي المناسب من قِبَل الحكومة الفيدرالية، فمن الممكن أن يستمر الاستثمار العام من خلال التحديات الفنية والبدايات الخاطئة، وهي الظروف التي قد تؤدي إلى إعادة توجيه جهود الشركات أو تعثرها أو حتى الاستسلام.
لقد فتح الأمر التنفيذي الأخير لإدارة بايدن بشأن الذكاء الاصطناعي الباب لإنشاء وكالة فيدرالية لتطوير ونشر الذكاء الاصطناعي تعمل تحت إشراف سياسي، وليس إشراف سوقي. يدعو الأمر إلى إنشاء برنامج تجريبي لموارد أبحاث الذكاء الاصطناعي الوطنية لإنشاء "موارد حسابية وبيانات ونموذجية وتدريبية لإتاحتها لمجتمع البحث".
ورغم أن هذه بداية طيبة، فيتعين على الولايات المتحدة أن تذهب إلى ما هو أبعد من ذلك فتؤسس وكالة خدمات بدلاً من الاكتفاء بمصدر للأبحاث. مثلما تدير المراكز الفيدرالية للرعاية الطبية والخدمات الطبية (CMS) برامج التأمين الصحي العام، كذلك يمكن لوكالة فيدرالية مخصصة للذكاء الاصطناعي - مراكز خدمات الذكاء الاصطناعي - توفير وتشغيل نماذج الذكاء الاصطناعي العامة. يمكن لمثل هذه الوكالة أن تعمل على إضفاء الطابع الديمقراطي على مجال الذكاء الاصطناعي مع إعطاء الأولوية أيضًا لتأثير نماذج الذكاء الاصطناعي هذه على الديمقراطية، أي ضرب عصفورين بحجر واحد.
وكما هو الحال مع شركات الذكاء الاصطناعي الخاصة، فإن حجم الجهود والموظفين والتمويل اللازم لإنشاء وكالة عامة للذكاء الاصطناعي سيكون كبيرًا، ولكنه لا يزال يمثل قطرة في دلو الميزانية الفيدرالية. لدى OpenAI أقل من 800 موظف مقارنة بـ 6700 موظف في CMS وميزانية سنوية تزيد عن 2 تريليون دولار. ما نحتاج إليه هو شيء في المنتصف، على مستوى المعهد الوطني للمعايير والتكنولوجيا، بموظفيه البالغ عددهم 3400 موظف، وميزانيته السنوية البالغة 1.65 مليار دولار في السنة المالية 2023، وشراكات أكاديمية وصناعية واسعة النطاق. يعد هذا استثمارًا كبيرًا، ولكنه خطأ تقريبي في مخصصات الكونجرس مثل قانون تشيبس لعام 2022 بقيمة 50 مليار دولار لتعزيز إنتاج أشباه الموصلات المحلي، وسرقة القيمة التي يمكن أن تنتجها. إن الاستثمار في مستقبلنا – ومستقبل الديمقراطية – يستحق كل هذا العناء.
ما هي الخدمات التي ستقدمها هذه الوكالة في حال إنشائها؟
وينبغي أن تكون مسؤوليتها الرئيسية هي ابتكار وتطوير وصيانة نماذج الذكاء الاصطناعي الأساسية - التي تم إنشاؤها بموجب أفضل الممارسات، وتطويرها بالتنسيق مع القادة الأكاديميين وقادة المجتمع المدني، وإتاحتها بتكلفة معقولة وموثوقة لجميع المستهلكين في الولايات المتحدة.
النماذج الأساسية هي نماذج ذكاء اصطناعي واسعة النطاق يمكن بناء مجموعة متنوعة من الأدوات والتطبيقات عليها. يمكن لنموذج أساسي واحد أن يحول ويعمل على مدخلات بيانات متنوعة قد تتراوح من نص بأي لغة وفي أي موضوع؛ للصور والصوت والفيديو؛ للبيانات المنظمة مثل قياسات أجهزة الاستشعار أو السجلات المالية. إنهم عموميون يمكن ضبطهم لإنجاز العديد من المهام المتخصصة. في حين أن هناك فرصًا لا نهاية لها للابتكار في تصميم هذه النماذج وتدريبها، إلا أن التقنيات والبنى الأساسية راسخة.
سيتم توفير نماذج الذكاء الاصطناعي الممولة اتحاديًا كخدمة عامة، على غرار خيار الرعاية الصحية الخاص. فهي لن تقضي على الفرص المتاحة لنماذج المؤسسات الخاصة، ولكنها ستوفر خط أساس للسعر والجودة وممارسات التنمية الأخلاقية التي يتعين على الشركات الفاعلة أن تطابقها أو تتجاوزها حتى تتمكن من المنافسة.
وكما هو الحال مع الرعاية الصحية الاختيارية العامة، لا تحتاج الحكومة إلى القيام بكل ذلك. ويمكنها التعاقد مع مقدمي خدمات من القطاع الخاص لتجميع الموارد التي تحتاجها لتقديم
خدمات الذكاء الاصطناعي. وبوسع الولايات المتحدة أيضاً أن تدعم وتحفز سلوك مشغلي سلسلة التوريد الرئيسية مثل شركات تصنيع أشباه الموصلات، كما فعلنا بالفعل مع قانون تشيبس، لمساعدتها في توفير البنية الأساسية التي تحتاج إليها.
قد تقدم الحكومة بعض الخدمات الأساسية بالإضافة إلى نماذجها الأساسية مباشرة للمستهلكين: الفاكهة المعلقة مثل واجهات برامج الدردشة الآلية ومولدات الصور. ولكن المنتجات الأكثر تخصصا التي تتعامل مع المستهلك مثل المساعدات الرقمية المخصصة، وأنظمة المعرفة المتخصصة، وحلول الشركات المفصلة يمكن أن تظل مصدرا للشركات الخاصة.
إن الجزء الأساسي من النظام البيئي الذي ستمليه الحكومة عند إنشاء خيار عام للذكاء الاصطناعي هو قرارات التصميم المتضمنة في التدريب ونشر النماذج الأساسية للذكاء الاصطناعي. وهذا هو المجال الذي يمكن أن تؤثر فيه الشفافية والرقابة السياسية والمشاركة العامة على نتائج أكثر ديمقراطية مقارنة بالسوق الخاصة غير المنظمة.
بعض القرارات الرئيسية التي ينطوي عليها بناء النماذج الأساسية للذكاء الاصطناعي هي البيانات التي يجب استخدامها، وكيفية تقديم تعليقات مؤيدة للمجتمع من أجل " مواءمة " النموذج أثناء التدريب، ومن يجب إعطاء الأولوية لمصالحه عند تخفيف الأضرار أثناء النشر. بدلاً من استخلاص المحتوى من الويب، أو البيانات الخاصة للمستخدمين التي لم يوافقوا مطلقًا على استخدامها بواسطة الذكاء الاصطناعي، بشكل مشكوك فيه أخلاقيًا وقانونيًا، يمكن لنماذج الذكاء الاصطناعي العامة استخدام أعمال المجال العام، والمحتوى المرخص من قبل الحكومة، بالإضافة إلى البيانات التي موافقة المواطنين على استخدامها للتدريب النموذجي العام.
ويمكن تعزيز نماذج الذكاء الاصطناعي العامة من خلال امتثال العمال لقوانين التوظيف الأمريكية وأفضل ممارسات التوظيف في القطاع العام. في المقابل، حتى مشاريع الشركات ذات النوايا الحسنة ارتكبت في بعض الأحيان استغلالًا للعمالة وانتهاكات لثقة الجمهور، مثل العمال الكينيين الذين يقدمون تعليقات لا نهاية لها حول المدخلات والمخرجات الأكثر إثارة للقلق لنماذج الذكاء الاصطناعي بتكلفة شخصية باهظة.
حماية حقوق الاقليات ودعم مبادئ الدستور
وبدلا من الاعتماد على وعود الشركات الساعية إلى الربح لتحقيق التوازن بين المخاطر والفوائد المترتبة على من يخدمهم الذكاء الاصطناعي، من الممكن أن تعمل العمليات الديمقراطية والرقابة السياسية على تنظيم كيفية عمل هذه النماذج. من المحتمل أن يكون من المستحيل على أنظمة الذكاء الاصطناعي إرضاء الجميع، ولكن يمكننا أن نختار أن يكون لدينا نماذج أساسية للذكاء الاصطناعي تتبع مبادئنا الديمقراطية وتحمي حقوق الأقليات في ظل حكم الأغلبية.
نماذج المؤسسة الممولة من الاعتمادات العامة (على نطاق متواضع بالنسبة للحكومة الفيدرالية) من شأنها أن تتجنب الحاجة إلى استغلال بيانات المستهلك وستكون حصنًا ضد الممارسات المناهضة للمنافسة، مما يجعل خدمات الخيارات العامة هذه بمثابة موجة لرفع جميع القوارب: الأفراد والشركات على حد سواء. ومع ذلك، فإن مثل هذه الوكالة سوف يتم إنشاؤها وسط رياح سياسية متقلبة، والتي أظهر التاريخ الحديث أنها قادرة على إثارة هبات مثيرة للقلق وغير متوقعة. إذا تم تنفيذها، فإن إدارة الذكاء الاصطناعي العام يمكن، بل ويجب، أن تكون مختلفة. ولا يمكن اقتلاع التكنولوجيات الأساسية لنسيج الحياة اليومية وإعادة زراعتها كل أربع إلى ثماني سنوات. ويجب تسليم سلطة بناء الذكاء الاصطناعي العام وخدمته إلى المؤسسات الديمقراطية التي تعمل بحسن نية لدعم المبادئ الدستورية.
قد تؤدي اللوائح القانونية السريعة والقوية إلى إحباط الحاجة الملحة لتطوير الذكاء الاصطناعي العام. ولكن لا يبدو أن مثل هذا التنظيم الشامل وشيك الحدوث. على الرغم من أن العديد من شركات التكنولوجيا الكبرى قالت إنها ستتخذ خطوات مهمة لحماية الديمقراطية في الفترة التي تسبق انتخابات عام 2024، إلا أن هذه التعهدات طوعية وغير محددة في بعض الأماكن. أما الحكومة الفيدرالية الأمريكية فهي أفضل قليلا لأنها كانت بطيئة في اتخاذ خطوات نحو تشريع وتنظيم الذكاء الاصطناعي للشركات (على الرغم من أن فريق عمل جديد من الحزبين الجمهوري والديمقراطي في مجلس النواب يبدو عازما على إحراز تقدم). على مستوى الولايات، نجحت أربع ولايات قضائية فقط في تمرير تشريعات تركز بشكل مباشر على تنظيم المعلومات المضللة القائمة على الذكاء الاصطناعي في الانتخابات. ورغم أن دولاً أخرى اقترحت تدابير مماثلة، فمن الواضح أن التنظيم الشامل كان، ومن المرجح أن يظل في المستقبل القريب، متخلفاً كثيراً عن وتيرة تقدم الذكاء الاصطناعي. وبينما ننتظر أن تلحق التنظيمات الحكومية الفيدرالية وحكومات الولايات بالركب، نحتاج في الوقت نفسه إلى البحث عن بدائل للذكاء الاصطناعي الذي تسيطر عليه الشركات.
المال الاستثماري التكنولوجي
وفي غياب خيار عام، ينبغي للمستهلكين أن ينظروا بحذر إلى سوقين حديثين تم توحيدهما من خلال رأس المال الاستثماري التكنولوجي. وفي كل حالة، بعد أن أنشأت الشركات المنتصرة مراكزها المهيمنة، كانت النتيجة استغلال قواعد المستخدمين الخاصة بها والتقليل من شأن منتجاتها. الأول هو البحث عبر الإنترنت ووسائل التواصل الاجتماعي، حيث أظهر الصعود المهيمن لفيسبوك وجوجل على قمة نموذج مجاني الاستخدام مدعوم بالإعلانات أنه عندما لا تدفع، فأنت أنت المنتج. وكانت النتيجة تآكلاً واسع النطاق للخصوصية على الإنترنت، وبالنسبة للديمقراطية، تآكل سوق المعلومات الذي تعتمد عليه موافقة المحكومين. والآخر هو مشاركة الرحلات، حيث أدى عقد من الدعم الممول من رأس المال الاستثماري وراء أوبر وليفت إلى تقليص المنافسة حتى تتمكن من رفع الأسعار.
اختراع ديمقراطيتنا في مجال الذكاء الاصطناعي
إن الحاجة إلى إدارة كفؤة ومخلصة ليست مقتصرة على الذكاء الاصطناعي، وهي ليست مشكلة يمكننا أن نتطلع إلى الذكاء الاصطناعي لحلها. وينبغي لصناع السياسات الجادين من كلا الجانبين أن يدركوا ضرورة عدم التنازل عن السيطرة على مستقبل الذكاء الاصطناعي لعمالقة الشركات. نحن لا نحتاج إلى إعادة اختراع ديمقراطيتنا في مجال الذكاء الاصطناعي، ولكننا بحاجة إلى تجديدها وإعادة تنشيطها لتقديم بديل فعال للسيطرة غير المقيدة للشركات التي يمكن أن تؤدي إلى تآكل ديمقراطيتنا. وفقًا ما نشره بموقع The Brookings Institution" ".
كيف يمكن للذكاء الاصطناعي أن يستعيد إيماننا بالديمقراطية؟
قال دونالد ترامب لمؤيديه في تجمع انتخابي بمناسبة يوم المحاربين القدامى في نيو هامبشاير: “إن تهديدنا يأتي من الداخل”. "نتعهد لكم بأننا سوف نجتث الشيوعيين والماركسيين والفاشيين وبلطجية اليسار المتطرف الذين يعيشون مثل الحشرات داخل حدود بلادنا."
وأثارت هذه التصريحات الغضب والمقارنات بألمانيا النازية. إن تجريد المعارضين السياسيين من إنسانيتهم يؤدي إلى تآكل ثقة الجمهور في النظام الديمقراطي من خلال خلق عقلية "نحن ضدهم". المخاطر ليست مجرد خطابة. والواقع أن العنف السياسي آخذ في الارتفاع في الولايات المتحدة.
ولهذا السبب نتجه في مختبر الحوكمة إلى الذكاء الاصطناعي لإطلاق العنان لخبرات ومعارف الخبراء العالميين. يعمل الذكاء الاصطناعي على تسهيل عملية تحديد الاستراتيجيات المبتكرة لمكافحة العنف المرتبط بالانتخابات وتخريب الانتخابات وتعزيز ديمقراطيتنا.
حل مشاكل التكنولوجيا
الخطوة الأولى في معالجة أي تحدٍ معقد هي تقسيمه إلى مشكلات أصغر يسهل التحكم فيها. يشمل تخريب الانتخابات، على سبيل المثال، عددًا لا يحصى من القضايا بدءًا من الشكوك التي تغذيها وسائل الإعلام حول نزاهة الانتخابات، إلى العنف ضد مسؤولي الانتخابات، إلى نقاط الضعف (الحقيقية والمتصورة) في تكنولوجيا الانتخابات.
لكن تحديد تلك المشكلات الأساسية يتطلب عادة أسابيع من البحث والمقابلات تليها أشهر إضافية، إن لم يكن سنوات، من العناية الواجبة لمعرفة ما تم تجربته، وما إذا كان ما تم تجربته قد نجح بالفعل، وما إذا كان ما نجح في مكان آخر قابل للتحويل ومن المرجح أن ينجح. العمل في مجتمعات إضافية.
لكن الذكاء الاصطناعي التوليدي يعمل بشكل جذري على إحداث تحول جذري في إمكانية حل المشكلات معًا. ونظرًا لأن تكنولوجيا نماذج اللغات الكبيرة يتم تدريبها على مليارات من معلمات اللغة، فهي جيدة بشكل خاص في تنظيم المحتوى وتلخيصه، وليس مجرد إنشائه.
تجميع السياسات: استخدام الذكاء الاصطناعي لتعزيز الذكاء الجماعي
وللمساعدة في تسريع عملية تحديد المشاكل والتوصل إلى حلول لتخريب الانتخابات، استعان فريقي في GovLab بخبرة رجل الأعمال الأيسلندي في مجال التكنولوجيا المدنية روبرت بجارناسون. قام بيارناسون بتصميم المنصات المستخدمة في أكثر من 10000 مشاركة للمواطنين على مستوى العالم منذ عام 2008.
ومن مقصورته الواقعة على ضفاف النهر الأبيض الجميل والمقفر في جنوب أيسلندا، يعترف روبرت بصراحة مبتهجة أنه "حتى عندما يشارك المواطنون، فإن الحكومات، على وجه الخصوص، لا تتمكن في كثير من الأحيان من الاستفادة من ردود الفعل".
لقد ابتكرنا معًا Policy Synth، وهي مجموعة أدوات لزيادة سرعة ودقة وحجم "التعهيد الجماعي الأكثر ذكاءً" باستخدام نسخة مضبوطة بدقة من GPT-4، وهو نموذج اللغة الكبير متعدد الوسائط الخاص بـ Open AI.
كيف يعمل؟ يستخدم Policy Synth الذكاء الاصطناعي لتحسين عملية صنع السياسات المعقدة. يقوم PolicySynth بأتمتة إنشاء أكثر من ألف استعلام بحث مختلف، من العام إلى العلمي، إلى البيانات المحددة والمتعلقة بالأخبار، لإجراء بحث شامل عن المشكلات وأسبابها الجذرية. وقد مكننا هذا من تقسيم المشكلة المعقدة المتمثلة في "تخريب الانتخابات" إلى عدد لا يحصى من التحديات الأصغر تلقائيا، وتحديد العشرات من التحديات الأكثر قابلية للحل.
ومن بين قائمة المشكلات الأطول، اخترنا الموضوعات التي تريد التركيز عليها. على سبيل المثال، كان أحد المواضيع المحددة هو إساءة استخدام الأنظمة الإدارية والقانونية.
لقد رفع منكرو الانتخابات عن عمد عدة دعاوى قضائية كيدية بهدف إلغاء نتائج الانتخابات أو قدموا طلبات سجلات عامة تافهة ليس لها أي غرض حقيقي سوى تشويه أعمال النظام الانتخابي.
لقد قمنا بسرعة بعقد 35 متخصصًا في مؤتمر عبر الإنترنت لمدة ساعتين عبر Zoom حيث اقترحوا 14 حلاً لمشكلة الانتهاكات القانونية، مثل الاستثمار في المنظمات المهنية ذات السلطة التأديبية لمعاقبة المحامين الخبيثين وتحسين التعليم حول المسؤولية المهنية في كليات الحقوق. لقد ساعدنا الذكاء الاصطناعي في تلخيص واستخراج الدروس المستفادة من ساعتين من التحدث والكتابة المتزامنين في دقائق، بدلاً من أيام. كررنا مثل هذه الاجتماعات عبر الإنترنت لمواضيع أخرى.
بالتوازي مع سؤال الأشخاص، طلبنا أيضًا من Policy Synth إنشاء قائمة الحلول الخاصة به. قام وكلاء GPT بالبحث في الويب لتحديد الحلول التي تستجيب للمشكلة. بعد إنشاء مئات الحلول، قمنا بأتمتة عملية إزالة التكرارات وعزل تلك الحلول ذات الصلة بالعمل الخيري فقط (على عكس الحكومة أو الشركة).
أنتجت عملية التصفية هذه، والتي يسميها روبرت "الحصاد"، قائمة تضم 60 حلاً لكل مشكلة محددة، كل منها مصحوب برسم توضيحي مرئي من أداة توليد الصور StabilityAI، بتنسيق يمكن قراءته بواسطة الإنسان مع إيجابيات وسلبيات كل حل.
وقد أسفرت سياسة Synth عن نفس الحلول الأربعة عشر للانتهاكات القانونية كتلك التي حددها الخبراء البشريون، ولكنها قدمت أيضًا حلولاً إضافية، مثل إنشاء صندوق دفاع قانوني للمسؤولين الإداريين ودعم الصحة العقلية للعاملين في الانتخابات.
إن Policy Synth لا يقوم فقط بإيجاد الحلول؛ كما أنه يطور التوصيات باستخدام الخوارزمية الجينية. يجمع البرنامج التوصيات ثم يختبر مدى ملاءمة الإصدار الجديد من الحل للمشكلة المذكورة لمعرفة ما إذا كان ينبغي اعتماد التحسين أو رفضه. ومن خلال خمس عشرة جولة من هذا التحول والتصنيف، تنتج Policy Synth قائمة نهائية من الأساليب المصممة لمعالجة المشكلة.
ومؤخراً، أعلنت شركة ديب مايند التابعة لشركة جوجل أنها أيضاً تقوم بتجربة استخدام الخوارزميات الجينية للسماح للذكاء الاصطناعي بتحسين صياغته السريعة.
تستخدم Policy Synth أيضًا Elo Scoring لتصنيف الحلول. تم تسميته على اسم سيد الشطرنج Arpad Elo، يُظهر Elo Scoring مدى مهارة لاعب الشطرنج، ليس من خلال الأخذ في الاعتبار عدد الانتصارات وحدها، ولكن من خلال ما إذا كان الفوز ضد لاعب أفضل أو أسوأ. تساعد هذه المقارنة الزوجية الأشخاص على معرفة مدى كفاءتهم. وبالمثل، يقوم Policy Synth AI بمقارنة كل حل بالآخر ويسجلها بناءً على المعايير المطلوبة مثل سرعة التنفيذ أو التكلفة أو احتمال الخلاف السياسي أو التأثير على النساء أو الأمريكيين من أصل أفريقي.
وهكذا، تمكنا من أخذ التوصيات الصادرة عن الذكاء الاصطناعي والخبراء البشريين واستخدام إحداها لتقييم وتصنيف مقترحات الآخر.
في حين يمكن للمجموعات المتزايدة العدد أن تتعثر في الجدال حول مزايا المقترحات المختلفة، والتي تعتمد غالبًا على من اقترحها، يمكن للذكاء الاصطناعي التوليدي أن يغربل الأفكار ويصنفها بسرعة، مما يؤدي إلى تسريع عملية تقييم الأدلة.
توسيع نطاق المشاركة البشرية في صنع السياسات
ويؤكد روبرت: "خاصة عندما يتعلق الأمر بأموال دافعي الضرائب، يجب أن يشارك المواطنون في صنع القرار". لكن مطالبة الناس بأفكارهم "تتطلب إشرافًا إداريًا كبيرًا لإدارتها، مما يحد من عدد المشاركين ونطاق القضايا التي يمكن معالجتها أو تقليل القدرة على فهم ما يشاركه الناس.
ويتعجب قائلا: "هذا ما يجعل الذكاء الاصطناعي يغير قواعد اللعبة". إن قدرة الذكاء الاصطناعي على التعامل مع مهام "المكتب الخلفي" المختلفة مثل البحث والتقييم تمكننا من زيادة عدد الأشخاص الذين يمكنهم المشاركة في المشاركة عبر الإنترنت بشكل كبير. يمكن للذكاء الاصطناعي استخلاص رؤى قيمة من المحادثات الجارية، وتقييم مساهمات المشاركين البشريين، وتحسين المقترحات، وإجراء البحوث لملء أي فجوات. حتى عندما يشارك عدد كبير من المشاركين، فإن أتمتة هذه المهام الإدارية والتحليلية، يجعلنا قادرين على الجمع بسلاسة بين المراحل المختلفة لمشاركة المواطنين، مثل تحديد المشكلات وصياغة الحلول.
خطر عينات السيليكون
ومع مواجهة العالم للعديد من التحديات المعقدة والعاجلة، فإن القدرة على تحسين وتسريع إيجاد حلول قابلة للتنفيذ لمشاكل معقدة، بدءاً من تغير المناخ إلى عدم المساواة في الدخل إلى الأمن الغذائي، من الممكن أن تعمل على تحسين الإدارة بشكل جذري. ومع ذلك، فإن إدخال الذكاء الاصطناعي التوليدي في مشاركة المواطنين لا يخلو من التحديات.
وسيكون الخطر الأكبر هو إغراء استخدام الذكاء الاصطناعي التوليدي للحد من المشاركة البشرية بدلا من زيادتها. تم العثور على شخصيات الذكاء الاصطناعي تتطابق بشكل وثيق مع الاستجابات البشرية. في إحدى التجارب، طرح عالم النفس الاجتماعي في جامعة نورث كارولينا في تشابل هيل 464 سؤالًا أخلاقيًا على البشر وعلى "عينات السيليكون"، وهي شخصيات الذكاء الاصطناعي التي تمثل أناسًا حقيقيين؛ وكانت الردود متطابقة تقريبا. قد يكون من المغري إجراء محادثات مع الآلات فقط.
إن استبدال الآلات بالمدخلات البشرية يخطئ في حل المشكلات التشاركية. إن الاعتماد المفرط على التوصيات التي يولدها الذكاء الاصطناعي والتي تكون سليمة من الناحية الفنية ولكنها تفتقر إلى الذكاء العاطفي قد لا يؤدي إلى الحلول التي تريدها المجتمعات البشرية، وخاصة إذا لم تشارك في عملية إنشائها.
مازلنا نتعلم كيفية الجمع بين الذكاء الاصطناعي والذكاء الجماعي بكفاءة. عندما نتمكن من مزج دقة الآلة مع الحكمة البشرية، فإن هذا لديه القدرة على تسريع كيفية حل المشاكل وتعميق الديمقراطية. وبينما نبحر في هذه الحدود الجديدة، دعونا لا ننسى: يمكن للتكنولوجيا أن تقدم المعلومات، لكن الناس هم من يقررون. بحسب موقع "Fast Company".
اضف تعليق