رائد الذكاء الاصطناعي يغادر جوجل ويحذر من المخاطر

جيفري هينتون حذّر من استخدام "جهات سيئة" للذكاء الاصطناعي

جيفري هينتون حذّر من استخدام “جهات سيئة” للذكاء الاصطناعي

الدكتور جيفري هينتون الذي ينظر إليه على نطاق واسع كـ “أب روحي” للذكاء الاصطناعي، قدّم استقالته محذرا من الأخطار المتزايدة الآتية من عمليات التطوير في هذا المجال. وأعلن هينتون (75 عاماً) استقالته من “جوجل” في بيان أرسله لصحيفة نيويورك تايمز، قائلاً إنه نادم الآن على عمله.

لفترة طويلة كان جيفري هينتون رائدًا في مجال الذكاء الاصطناعي. في عام 2012، ابتكر الدكتور هينتون واثنان من طلابه في جامعة تورنتو تقنية أصبحت الأساس الفكري لأنظمة الذكاء الاصطناعي. الأنظمة التي تعتقد أكبر شركات صناعة التكنولوجيا أنها مفتاح لمستقبلهم.

ومع ذلك، انضم رسميًا يوم الاثنين 1 مايو إلى مجموعة متزايدة من النقاد الذين يقولون إن هذه الشركات تتسابق نحو الخطر، بحملتها العدوانية لإنشاء منتجات تعتمد على الذكاء الاصطناعي التوليدي Generative A.I. وهي التكنولوجيا التي تدعم برامج الدردشة الشهيرة مثل ChatGPT.

قال الدكتور هينتون إنه استقال من وظيفته في جوجل، حيث عمل لأكثر من 10 سنوات وأصبح أحد أكثر الأصوات احترامًا في هذا المجال، لذلك يمكنه التحدث بحرية عن مخاطر الذكاء الاصطناعي. قال إن جزءًا منه يندم الآن على عمله في هذا المجال.

يعتقد قادة الصناعة أن أنظمة الذكاء الاصطناعي الجديدة قد تكون بنفس أهمية إدخال برامج تصفح الإنترنت في أوائل التسعينيات، ويمكن أن تؤدي إلى اختراقات في مجالات تتراوح من أبحاث الأدوية إلى التعليم.

تحذيرات من مخاطر تكنولوجيا الذكاء الاصطناعي

الذكاء الاصطناعي لايزال لغزا عند معظم الناس

الذكاء الاصطناعي لايزال لغزا عند معظم الناس

بعد أن أصدرت شركة OpenAI الناشئة في سان فرانسيسكو إصدارًا جديدًا من ChatGPT في مارس الماضي، وقع أكثر من 1,000 من قادة التكنولوجيا والباحثين خطابًا مفتوحًا يدعو إلى وقف لمدة 6 أشهر لتطوير أنظمة جديدة لأن تكنولوجيا الذكاء الاصطناعي تشكل “مخاطر جسيمة على المجتمع والإنسانية”.

بعد عدة أيام، أصدر 19 من القادة الحاليين والسابقين لجمعية النهوض بالذكاء الاصطناعي، وهي جمعية أكاديمية عمرها 40 عامًا، خطابًا خاصًا بهم يحذرون فيه من مخاطر الذكاء الاصطناعي.

ضمت تلك المجموعة إريك هورفيتز، كبير المسؤولين العلميين في مايكروسوفت، التي نشرت تقنية OpenAI عبر مجموعة واسعة من المنتجات، بما في ذلك محرك بحث بينج.

لم يوقع الدكتور هينتون، الذي يُطلق عليه غالبًا “الأب الروحي للذكاء الاصطناعي”، أيًا من هاتين الرسالتين وقال إنه لا يريد أن ينتقد علنًا شركة جوجل أو الشركات الأخرى حتى يترك وظيفته.

أخطر الشركة الشهر الماضي بأنه سيستقيل، ويوم الخميس 27 أبريل، تحدث عبر الهاتف مع سوندار بيتشاي، الرئيس التنفيذي لشركة جوجل الأم ألفابيت. ورفض مناقشة تفاصيل محادثته مع السيد بيتشاي علانية.

وقال جيف دين، كبير العلماء في جوجل ، في بيان: “نحن لا نزال ملتزمين بنهج مسؤول تجاه الذكاء الاصطناعي. نحن نتعلم باستمرار لفهم المخاطر الناشئة مع الابتكار بجرأة أيضًا “.

تحذير دكتور هينتون

قال الدكتور هينتون: “من الصعب أن ترى كيف يمكنك منع الجهات الفاعلة السيئة من استخدام هذه التكنولوجيا لأشياء سيئة”.

وقال إن بعض مخاطر روبوتات الدردشة الذكية “مخيف للغاية”.

وأضاف: “في الوقت الحالي، هم ليسوا أكثر ذكاء منا بقدر ما أستطيع أن أقول. لكنني أعتقد أنهم سيصبحون قريبا”.

مع قيام الشركات بتحسين الذكاء الاصطناعي الخاص بها، يعتقد أنها تزداد خطورة.

قال عن تكنولوجيا الذكاء الاصطناعي “انظر كيف كان الأمر قبل خمس سنوات وكيف هو الآن. “خذ الاختلاف وانشره للأمام، هذا مخيف.”

قال الدكتور هينتون إن عمالقة التكنولوجيا يخوضون منافسة قد يكون من المستحيل إيقافها.

التقنيات التي طورها دكتور هينتون

تبنى الدكتور هينتون فكرة تسمى الشبكة العصبية. الشبكة العصبية هي نظام رياضي يتعلم المهارات من خلال تحليل البيانات. في ذلك الوقت، كان عدد قليل من الباحثين يؤمن بالفكرة. لكنه أصبح عمل حياته.

في الثمانينيات، كان الدكتور هينتون أستاذًا لعلوم الكمبيوتر في جامعة كارنيجي ميلون، لكنه ترك الجامعة إلى كندا لأنه قال إنه كان مترددًا في الحصول على تمويل من البنتاجون.

في ذلك الوقت، كان معظم تمويل أبحاث الذكاء الاصطناعي في الولايات المتحدة من قبل وزارة الدفاع. يعارض الدكتور هينتون بشدة استخدام الذكاء الاصطناعي في ساحة المعركة، ما يسميه “الروبوتات الجنود”.

في عام 2012، أنشأ الدكتور هينتون واثنان من طلابه في تورنتو، وهما إيليا سوتسكيفر وأليكس كريشيفسكي، شبكة عصبية يمكنها تحليل آلاف الصور وتعليم نفسها تحديد الأشياء الشائعة، مثل الزهور والكلاب والسيارات.

إيليا سوتسكيفر، كبير علماء شركة OpenAI، عمل مع الدكتور هينتون في بحثه في تورنتو

إيليا سوتسكيفر، كبير علماء شركة OpenAI، عمل مع الدكتور هينتون في بحثه في تورنتو

أنفقت جوجل 44 مليون دولار للحصول على شركة بدأها الدكتور هينتون وطلابه. وأدى نظامهم إلى إنشاء تقنيات قوية بشكل متزايد، بما في ذلك روبوتات الدردشة الجديدة مثل ChatGPT و Google Bard. ذهب السيد أليكس كريشيفسكي ليصبح كبير العلماء في شركة OpenAI. في عام 2018، حصل الدكتور هينتون واثنان آخران من المتعاونين القدامى على جائزة تورينج، التي غالبًا ما تسمى “جائزة نوبل للحوسبة”، لعملهم على الشبكات العصبية.

مهدت أبحاث هينتون الرائدة حول التعلم العميق والشبكات العصبية، الطريق أمام أنظمة الذكاء الاصطناعي مثل “شات جي بي تي”.

في نفس الوقت تقريبًا، بدأت جوجل و OpenAI وشركات أخرى في بناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية. اعتقد الدكتور هينتون أنها طريقة قوية لأجهزة الكمبيوتر لفهم اللغة وتوليدها، لكنها من وجهة نظره كانت أدنى من الطريقة التي يتعامل بها البشر مع اللغة.

ثم في العام الماضي، عندما قامت جوجل و OpenAI ببناء أنظمة تستخدم كميات أكبر من البيانات، تغيرت وجهة نظره. كان لا يزال يعتقد أن الأنظمة كانت أدنى من الدماغ البشري من بعض النواحي، لكنه اعتقد أنها تتفوق على الذكاء البشري في جوانب أخرى.

قال: “ربما ما يحدث في هذه الأنظمة هو في الواقع أفضل بكثير مما يحدث في الدماغ.”

وتابع قائلاً: “في الوقت الحالي، ما نراه هو أن أشياء مثل (جي بي تي – 4) تتفوق على الشخص في مقدار المعرفة العامة التي يمتلكها وإلى حد بعيد. بالنسبة للتفكير، إنه ليس جيداً، ولكنه يعمل فعلاً على التفكير البسيط”.

وأشار إلى أنه “بالنظر إلى معدل التطوّر، نتوقع أن تتحسن الأمور سريعاً. لذلك يجب أن نقلق بشأن ذلك”.

الاستخدام السيء للذكاء الاصطناعي

يغادر الدكتور جيفري هينتون شركة جوجل حتى يتمكن من مشاركة مخاوفه بحرية من أن الذكاء الاصطناعي يمكن أن يتسبب في أضرار جسيمة للعالم.

يغادر الدكتور جيفري هينتون شركة جوجل حتى يتمكن من مشاركة مخاوفه بحرية من أن الذكاء الاصطناعي يمكن أن يتسبب في أضرار جسيمة للعالم

لفت في المقال الذي أرسله إلى “نيويورك تايمز” إلى أن “جهات سيئة”، قد تحاول استخدام الذكاء الاصطناعي لفعل “أمور سيئة”.

وقال رداً على طلب بي بي سي بالإيضاح أكثر حول هذه المسألة قائلاً: “هذا فقط نوع من السيناريو الأسوأ، نوع من السيناريو الكابوس”.

وأضاف: “هل تستطيع أن تتخيل مثلاً أن أحداً سيئاً مثل الرئيس الروسي (فلاديمير بوتين) قرر أن يمنح الروبوتات القدرة على خلق أهدافه الفرعية”.

وحذّر من أن هذا في النهاية قد “يخلق أهدافا فرعية ـ على سبيل المثال “أنا بحاجة للحصول على مزيد من القوة”.

وقال: “لقد وصلت إلى استنتاج بأن نوع الذكاء الذي نطوره يختلف كثيراً عن الذكاء الذي لدينا”.

“نحن أنظمة بيولوجية وهذه أنظمة رقمية. والفرق الكبير، أنه مع الأنظمة الرقمية لديك العديد من النسخ من ذات مجموعة الأوزان، ومن نموذج العالم ذاته”.

وأوضح أن “جميع هذه النسخ تستطيع التعلم بشكل منفصل، لكنها تشارك معرفتها فوراً. فإن كان لديك 10 آلاف شخص، عندما يتعلم شخص واحد شيئا ما، سيعرفه الجميع تلقائياً. وهكذا يمكن أن تعرف روبوتات الدردشة أكثر من شخص واحد بكثير”.

وتحدث هينتون أيضاً عن عدة أسباب أخرى دفعته للاستقالة من عمله.

“واحد منها، أنني أبلغ الآن 75 عاماً. والآخر هو أنني أريد أن أقول أشياء جيدة عن جوجل. وستكون أكثر مصداقية إن لم أكن أعمل لصالح جوجل”.

وشدد على أنه لا يريد انتقاد جوجل، وعلى أن الشركة كانت “مسؤولة للغاية”.

وقال كبير علماء جوجل جيف دين: “لا نزال نلتزم بمقاربة مسؤولة للذكاء الاصطناعي. نتعلم باستمرار لفهم المخاطر الناشئة في ظل الابتكار بجرأة أيضاً”.


خاص: إيجيبت14
المصدر: وكالات – بي بي سي – نيويورك تايمز

الإعلان

اترك تعليقًا

إملأ الحقول أدناه بالمعلومات المناسبة أو إضغط على إحدى الأيقونات لتسجيل الدخول:

شعار ووردبريس.كوم

أنت تعلق بإستخدام حساب WordPress.com. تسجيل خروج   /  تغيير )

Facebook photo

أنت تعلق بإستخدام حساب Facebook. تسجيل خروج   /  تغيير )

Connecting to %s

هذا الموقع يستخدم خدمة أكيسميت للتقليل من البريد المزعجة. اعرف المزيد عن كيفية التعامل مع بيانات التعليقات الخاصة بك processed.