18 دولة توقع اتفاقية لجعل الذكاء الاصطناعي أكثر آمنًا

تظهر كلمات الذكاء الاصطناعي في هذا الرسم التوضيحي الذي تم تصميمه في 31 مارس 2023

تظهر كلمات الذكاء الاصطناعي في هذا الرسم التوضيحي الذي تم تصميمه في 31 مارس 2023

كشفت الولايات المتحدة وبريطانيا وأكثر من 12 دولة أخرى يوم الأحد 26 نوفمبر عما وصفه مسؤول أمريكي كبير بأنه أول اتفاق دولي تفصيلي حول كيفية الحفاظ على الذكاء الاصطناعي آمنًا من الجهات الشريرة، مما يدفع الشركات إلى إنشاء أنظمة ذكاء اصطناعي “آمنة من خلال تصميمها”.

وفي وثيقة مكونة من 20 صفحة تم الكشف عنها يوم الأحد، اتفقت الدول الـ18 على أن الشركات التي تصمم وتستخدم الذكاء الاصطناعي بحاجة إلى تطويره ونشره بطريقة تحافظ على سلامة العملاء والجمهور الأوسع من سوء الاستخدام.

الاتفاقية غير ملزمة وتحمل في الغالب توصيات عامة مثل مراقبة إساءة استخدام أنظمة الذكاء الاصطناعي وحماية البيانات من التلاعب وفحص موردي البرامج.

ومع ذلك، قالت مديرة وكالة أمن الإنترنت وأمن البنية التحتية الأمريكية، جين إيسترلي، إنه من المهم أن تضع العديد من الدول أسماءها على فكرة أن أنظمة الذكاء الاصطناعي بحاجة إلى وضع السلامة في المقام الأول.

وقال إيسترلي لرويترز “هذه هي المرة الأولى التي نرى فيها تأكيدا على أن هذه القدرات لا ينبغي أن تقتصر فقط على الميزات الرائعة ومدى السرعة التي يمكننا بها طرحها في السوق أو كيف يمكننا التنافس لخفض التكاليف”، مضيفا أن المبادئ التوجيهية تمثل “الاتفاق على أن أهم شيء يجب القيام به في مرحلة التصميم هو الأمن.”

تعد هذه الاتفاقية الأحدث في سلسلة من المبادرات (القليل منها فعال) من قبل الحكومات في جميع أنحاء العالم لتشكيل تطور الذكاء الاصطناعي، الذي أصبح ثقله محسوسًا بشكل متزايد في الصناعة والمجتمع ككل.

وبالإضافة إلى الولايات المتحدة وبريطانيا، فإن الدول الـ 18 التي وقعت على المبادئ التوجيهية الجديدة هي ألمانيا وإيطاليا وجمهورية التشيك وإستونيا وبولندا وأستراليا وتشيلي وإسرائيل ونيجيريا وسنغافورة.

يتناول إطار العمل أسئلة حول كيفية منع اختطاف تكنولوجيا الذكاء الاصطناعي من قبل المتسللين ويتضمن توصيات مثل عدم إطلاق النماذج إلا بعد اختبار الأمان المناسب.

الاتفاقية لا تتناول الأسئلة الشائكة حول الاستخدامات المناسبة للذكاء الاصطناعي، أو كيفية جمع البيانات التي تغذي هذه النماذج.

وقد أدى صعود الذكاء الاصطناعي إلى تغذية مجموعة من المخاوف، بما في ذلك الخوف من إمكانية استخدامه للتلاعب في الانتخابات، أو تحفيز الاحتيال، أو يؤدي إلى خسارة الوظائف بشكل كبير، من بين أضرار أخرى.

تتقدم أوروبا على الولايات المتحدة فيما يتعلق باللوائح المتعلقة بالذكاء الاصطناعي، حيث يقوم المشرعون هناك بصياغة قواعد الذكاء الاصطناعي.

كما توصلت فرنسا وألمانيا وإيطاليا مؤخرا إلى اتفاق حول كيفية تنظيم الذكاء الاصطناعي الذي يدعم “التنظيم الذاتي الإلزامي من خلال مدونات قواعد السلوك” لما يسمى النماذج الأساسية للذكاء الاصطناعي، والتي تم تصميمها لإنتاج مجموعة واسعة من المخرجات.

وتضغط إدارة بايدن على المشرعين من أجل تنظيم الذكاء الاصطناعي، لكن الكونجرس الأمريكي المستقطب بين الحزب الجمهوري والديموقراطي لم يحرز تقدما يذكر في إقرار تنظيم فعال.

وسعى البيت الأبيض إلى الحد من مخاطر الذكاء الاصطناعي التي يتعرض لها المستهلكون والعمال والأقليات مع تعزيز الأمن القومي بأمر تنفيذي جديد في أكتوبر الماضي.


خاص: إيجيبت14
المصدر: رويترز

أضف تعليق

هذا الموقع يستخدم خدمة أكيسميت للتقليل من البريد المزعجة. اعرف المزيد عن كيفية التعامل مع بيانات التعليقات الخاصة بك processed.