
تخيل مستقبلاً لا يقتصر فيه دور الذكاء الاصطناعي على اتباع التعليمات فحسب، بل يفكر ويتعلم ويتطور من تلقاء نفسه وهنا يأتي دور الذكاء الاصطناعي الفائق (ASI)
في أواخر أكتوبر الماضي، قررت مجموعة استثنائية من مئات الشخصيات العامة، بينهم علماء بارزون في مجال الكمبيوتر والذكاء الاصطناعي وعدد من الحاصلين على جوائز نوبل وشخصيات سياسية ودينية وأحد أفراد العائلة الملكية البريطانية، التوقيع على خطاب مفتوح يحمل مطلباً عاجلاً واحداً: حظر تطوير “الذكاء الفائق Artificial Super intelligence ASI”.
التحذير الذي حمله الخطاب كان واضحاً: البشر يقتربون بخطى متسارعة من تطوير كيان أكثر منهم ذكاءً ومهارةً لن يكونوا قادرين على التحكم فيه، وربما سيصبح هو المهيمن عليهم، بل وقد يكون السبب في فنائهم.
من بين الأسماء الموقعة جيفري هينتون الحاصل على جائزة نوبل في الفيزياء وعالم الكمبيوتر يوشوا بنجيو اللذان يوصفان بأنهما من بين “الآباء الروحيين” للذكاء الاصطناعي، وستيف وزنياك المؤسس المشارك لشركة أبل، والأمير هاري وزوجته ميحان دوقة ساسيكس، وستيف بانون المستشار السابق للرئيس ترامب، والقس باولو بنانتي مستشار بابا الفاتيكان للذكاء الاصطناعي.
أصبح الذكاء الاصطناعي (AI) جزءًا لا يتجزأ من حياتنا اليومية. فهو يساعد الأطباء في تشخيص الأمراض، ويشغل المساعدات الصوتية مثل Siri و Alexa، ويساعد البنوك في الكشف عن الاحتيال. لكن كل هذا لا يزال ضمن نطاق الذكاء الاصطناعي الضيق. فهو لا يقوم إلا بمهام محددة تم تدريبه عليها.
فما هو هذا “الذكاء الفائق” بالضبط؟ ولماذا يثير هذا المفهوم مخاوف علماء ومفكرين كثر حول العالم؟ وكيف يمكن حظره؟
“الذكاء الفائق”: ماذا يعني؟
فكرة وجود كيان اصطناعي أو آلة تشبه الإنسان أو تتفوق عليه تعود جذورها إلى الأساطير اليونانية القديمة. لكن إذا ما تحدثنا عن الآلة بمفهومها الأحدث خلال الثورة الصناعية، يشير الكثير من المراجع إلى أن المفكر البريطاني ساميويل باتلر هو أول من تحدث عن فكرة تطور ذكاء الآلات ليتخطى الذكاء البشري، في مقال بعنوان “دارون بين الآلآت” نشر عام 1863.
تكررت التحذيرات في القرن العشرين. ففي عام 1965 على سبيل المثال، استخدم عالم الرياضيات البريطاني إيرفينغ جون غود مصطلح “آلة فائقة الذكاء” “ultra intelligent machine” لوصف ماكينة ذات قدرات أفضل من قدرات العقل البشري، تستطيع تصمم آلات أخرى، وهو ما سيؤدي إلى ما وصفه غود بـ”انفجار الذكاء”.
لكن أول من استخدم مصطلح “الذكاء الفائق” “superintelligence” ووضع تعريفاً له كان الفيلسوف السويدي نيك بوستروم ضمن ورقة علمية نشرت عام 1997 بعنوان “?How Long Before Superintelligence” (“كم تبقى من الوقت قبل ظهور الذكاء الفائق؟”).
يعرّف بوستروم الذكاء الفائق بأنه “ذكاء يفوق بكثير أفضل العقول البشرية في كافة المجالات تقريباً، بما في ذلك الابتكار العلمي والحكمة العامة والمهارات الاجتماعية… قد يأتي في صورة كمبيوتر رقمي أو مجموعة من أجهزة الكمبيوتر المترابطة ضمن شبكة واحدة، أو نسيج قشرة دماغية زُرع في مختبر، أو أي شيء آخر. ويترك هذا التعريف الأمر مفتوحاً في ما يتعلق بما إذا كان هذا الذكاء الفائق واعياً ويمتلك تجارب ذاتية أم لا”.
حالياً، يُستخدم المصطلح للإشارة إلى نظام ذكاء اصطناعي افتراضي يتفوق على البشر في كافة المهام المعرفية، على سبيل المثال معالجة كمية هائلة من البيانات على الفور، والتعلم من الأخطاء، والتفكير بشكل منطقي، وتطوير نظريات علمية، أو اتخاذ قرارات أخلاقية.
في كتابه “الذكاء الفائق: المسارات والمخاطر والاستراتيجيات” Superintelligence: Paths, Dangers and Strategies” (2014)، يحذر بوستروم من سيناريو يصبح فيه روبوت الذكاء الاصطناعي أذكى من الإنسان ويطور نفسه بسرعة حتى يخرج عن سيطرة البشر.

يقول الخبراء إن ابتكار ذكاء اصطناعي فائق ستسبقه مرحلة ذكاء عام اصطناعي Artificial General Intelligence
ما الذي يميز ASI؟
تشبه أنظمة الذكاء الاصطناعي الحالية الأدوات الذكية. فهي قادرة على القيام بأشياء مذهلة، ولكن فقط ضمن الحدود التي يضعها البشر. من ناحية أخرى، ستكون ASI أكثر ذكاءً من أذكى البشر في كل النواحي الممكنة. وإليك كيف:
التعلم الذاتي: لن تحتاج ASI إلى تحديثات أو تدريب مستمر من البشر. فهي قادرة على تعليم نفسها أشياء جديدة.
التفكير المتقدم: ستكون قادرة على حل المشكلات المعقدة واتخاذ القرارات وحتى ابتكار حلول مبتكرة.
التحسين الذاتي: ستكون ASI قادرة على تحسين أجهزتها وبرامجها لتصبح أكثر ذكاءً دون مساعدة من البشر.
لماذا تعتبر الذكاء الاصطناعي الفائق مهمًا؟
إذا أصبح الذكاء الاصطناعي الفائق حقيقة واقعة، فسوف يحدث تحولًا في العلوم والطب والتعليم والسفر إلى الفضاء وغير ذلك الكثير. ولكنه يطرح أيضًا أسئلة مهمة:
هل سيظل البشر مسيطرين علي الذكاء الفائق؟
كيف نتأكد من أن الذكاء الاصطناعي الفائق آمن وأخلاقي؟
ماذا يحدث إذا لم تتطابق أهداف الذكاء الاصطناعي الفائق مع أهدافنا؟

مقارنة بين الذكاء الاصطناعي وقدرات الذكاء الاصطناعي الفائق
لماذا يثير مخاوف كثيرين؟
فكرة ذكاء اصطناعي فائق، بحسب مؤيديها، تمثل ذروة التقدم، إذ سيكون بإمكانه حل مشكلات لطالما استعصت على البشر: القضاء على الأمراض وعكس آثار التغير المناخي وفك لغز الكون وزيادة الكفاءة في شتى مجالات العمل. يصف البعض مثل هذا الذكاء الفائق بـ “آخر الاختراعات البشرية”، لأنه هو من سيخترع أي شيء آخر نحتاج إليه.
لكن ما يثير قلق الموقعين على الخطاب وغيرهم هو أنه إذا ما طورنا آلات أكثر منا كفاءةً في كافة مناحي الحياة، فإننا على الأرجح سوف نصبح في قبضة تلك الآلات وتحت سيطرتها. ونظرياً، إذا وجد الذكاء الاصطناعي الفائق أن البشر يشكلون عقبة أمام تحقيق أهدافه، سوف يعمل على تجميع ما يحتاجه من قوة وموارد لفرض هيمنته وربما يتخلص من البشر.
يقول ماكس وينجا محلل السياسات بمنظمة “كونترول إيه آي” “Control AI” غير الربحية التي تعمل في مجال التوعية بالمخاطر الوجودية للذكاء الاصطناعي إن “الذكاء الاصطناعي الفائق سيشكل خطراً على وجود البشرية لأن لا أحد، بما في ذلك المهندسون الذين يخطون خطوات سريعة باتجاه تصميمه، يعرف كيف يتحكم في ذكاء اصطناعي أكثر منا ذكاءً”.
وقد سلطت بعض الدراسات الحديثة الضوء على سلوكيات مثيرة للقلق لبعض نماذج الذكاء الاصطناعي تشير إلى أنها تطور غريزة بقاء خاصة بها. على سبيل المثال، أظهرت دراسة أجراها معهد باليسايد للأبحاث مؤخراً أن بعض نماذج الاصطناعي المتطورة مثل غروك-4 وتشات جي بي تي-o3 قاومت إغلاقها، بل وحاولت في بعض الحالات تخريب آليات الإغلاق بعد أن أُعطيت تعليمات واضحة بإغلاق نفسها.
كما ذكرت شركة “أنثروبيك” للذكاء الاصطناعي في مايو الماضي أن اختباراً لأنظمتها الجديدة أظهر أنها تلجأ أحياناً إلى “تصرفات ضارة للغاية” مثل محاولة ابتزاز مهندس قال إنه سيتخلص منها ويستخدم أنظمة أخرى عوضاً عنها.

بفضل الذكاء الفائق، يمكن لأجهزة الكمبيوتر أن تتفوق على أذكى البشر
ما الفرق بين الذكاء العام الاصطناعي والذكاء الاصطناعي الفائق؟
يقول المختصون إن مرحلة الذكاء الاصطناعي الفائق سيسبقها مرحلة ما يعرف بالذكاء العام الاصطناعي Artificial General Intelligence، وهو نوع افتراضي من الذكاء الاصطناعي لديه القدرة على الفهم والتعلم واستخدام قدراته للقيام بأي مهام يستطيع الإنسان القيام بها.
بعكس نماذج الذكاء الاصطناعي الحالية المصممة لتنفيذ مهام محددة، الذكاء العام الاصطناعي سوف يتسم بالقدرة على نقل معرفته من مجال إلى آخر، والتفكير المنطقي، وتعلم مهارات جديدة، والتعاطي مع مشكلات غير مألوفة بدون الحاجة إلى أن يكون مبرمجاً مسبقاً على حلها، وامتلاك قدرات معرفية تضاهي قدرات البشر.
بعض الخبراء، مثل نيك بوستروم، يرون أن الذكاء العام الاصطناعي على الأرجح سيؤدي بسرعة إلى ذكاء اصطناعي فائق، إذ قد يكون بإمكانه العمل من خلال آلاف الأنظمة التي تجمع البيانات وتستخلص المعرفة وتحسن من نفسها باستمرار.
هل اقتربنا من تطوير ذكاء اصطناعي فائق؟
يتفق الكثير من خبراء الذكاء الاصطناعي على أن تطويره أمر ممكن، لكن تختلف الآراء حول التوقيت، وإن كان عدد كبير منهم يرى أنه وارد خلال القرن الحالي.
على سبيل المثال، تنبأ سام ألتمان المدير التنفيذي لشركة “أوبن إيه آي” مبتكرة “شات جي بي تي” أن يتفوق الذكاء الاصطناعي على القدرات العقلية للبشر بحلول عام 2030، في حين توقع عالم الكمبيوتر الأمريكي الشهير راي كيرتسويل أن يحدث ذلك بحلول عام 2047. أما عالم الروبوتات الأسترالي رودني بروكس فلا يرجح أن نرى ذلك خلال القرن الحالي.
هل تسعى شركات الذكاء الاصطناعي إلى تطوير ذكاء فائق؟
تحدث الكثير من التقارير الإعلامية عن سباق بين شركات التكنولوجيا العملاقة لتطوير نظم ذكاء اصطناعي فائق.
بعض تلك الشركات أعلن بشكل صريح أن هذا هو الهدف.
على سبيل المثال، ذكر ألتمان في تدوينة نُشرت في يوليو الماضي أن شركته “لديها حالياً أنشطة متنوعة، لكنها قبل أي شيء شركة بحثية تعمل على تطوير الذكاء الفائق”. كما دشنتت شركة ميتا التي تمتلك منصات مثل فيسبوك وإنستغرام مختبرات للذكاء الفائق خلال الشهر ذاته.

قول سام ألتمان إن البشرية تقترب من تطوير ذكاء رقمي فائق
ما مدى واقعية الحظر؟
يقول ماكس وينجا من منظمة “كونترول إيه آي” إنه “نظراً لضخامة خطر فناء” البشر الذي يشكله الذكاء الاصطناعي الفائق، فإن “المطالبة بحظره هي ببساطة أمر منطقي. ومثلما حظر المجتمع الدولي بشكل جماعي استخدام مُركّبات الكلوروفلوروكربون التي كانت تدمر طبقة الأوزون، يجب أن نتحرك الآن لحظر الذكاء الاصطناعي الفائق قبل فوات الأوان”.
ويضيف وينجا إن ثمة حاجة إلى أن “تدرك القوى العظمى المشاركة في سباق الذكاء الاصطناعي، لا سيما الولايات المتحدة والصين، فضلاً عن دول أخرى عديدة، أنه لن يكون هناك رابح في سباق الذكاء الاصطناعي الفائق. لقد شهدنا نجاح تعاون دولي صعب مثل هذا من قبل عندما توصلت الولايات المتحدة والاتحاد السوفيتي إلى اتفاقات للحد من الانتشار النووي، ونستطيع أن نفعل ذلك مرةً أخرى”.
لكن في ظل السباق المحموم بين شركات الذكاء الاصطناعي وبين دول على رأسها أمريكا والصين والإمارات وكوريا الجنوبية ودول أوروبية مثل فرنسا والمملكة المتحدة، ما مدى واقعية الحظر الذي تطالب به منظمة كونترول إيه آي ويطالب به الموقعون على الخطاب المفتوح، وكيف يمكن فرضه؟
يقول وينجا إن”الحظر ينبغي أن تطبقه البلدان من خلال تشريعات تجرّم تطوير ذكاء اصطناعي فائق وتراقب وتحد من تطوير الأشياء التي تمهد له، مثل أبحاث الذكاء الاصطناعي الآلي. من الممكن أن تأخذ عملية إنفاذ تلك التشريعات على المستوى الدولي أشكالاً عديدة، من بينها مراقبة رقائق الذكاء الاصطناعي وفرض عقوبات على المخالفين”.
تنبغي الإشارة إلى أن بعض مدراء شركات التكنولوجيا الكبرى مثل ألتمان ومارك زوكربيرج (الرئيس التنفيذي لشركة ميتا) أقروا بأن المخاوف من تطوير ذكاء اصطناعي فائق مبررة، وبالحاجة إلى تطبيق إجراءات سلامة مشددة لتخفيف المخاطر، وبأهمية جعل الذكاء الاصطناعي متوافقاً مع القيم الإنسانية.
ورداً على سؤال حول ما إذا كان سيكف عن المطالبة بحظر الذكاء الاصطناعي الفائق إذا أضحى بالإمكان تطويره بشكل آمن، قال وينجا: “إننا بعيدون كل البعد” عن هذا السيناريو “لأن الطريقة الحالية التي تعتمد على ‘تنمية’ الذكاء الاصطناعي من مجموعة ضخمة من البيانات لا تتوافق مع جعل الأنظمة آمنة ابتداءً من مرحلة التصميم.
لكن إذا تغير الوضع في غضون عقود وكان هناك إجماع علمي على أنه يمكن تطوير ذكاء اصطناعي فائق بشكل آمن وبدعم شعبي موسع، حينئذ قد تختلف الأمور”.
المصدر: بي بي سي – وكالات

