خبير: مخاطر الذكاء الاصطناعي على البشرية "مبالغ فيها"

خبير: مخاطر الذكاء الاصطناعي على البشرية "مبالغ فيها"

قضى اختصاصي الذكاء الاصطناعي غاري ماركوس الأشهر الأخيرة يحذر أقرانه والنواب والجمهور عمومًا من المخاطر المرتبطة بتطوير أدوات هذا المجال الجديدة وانتشارها الفائق السرعة، لكنه اعتبر في حديث أجرته معه وكالة فرانس برس في سان فرانسيسكو أن مخاطر انقراض البشرية "مبالغ فيها".

 وأوضح الأستاذ الفخري في جامعة نيويورك الذي قدِم إلى كاليفورنيا لحضور مؤتمر: "شخصيًّا، وفي الوقت الحاضر، لست قلقًا بهذا الشأن، لأن السيناريوهات ليست في غاية الواقعية".

 وتابع: "ما يقلقني هو أن نبني أنظمة ذكاء اصطناعي لا نُحكم السيطرة عليها".

وابتكر غاري ماركوس برنامجه الأول للذكاء الاصطناعي في المدرسة الثانوية، وكان برنامجًا لترجمة نصوص من اللاتينية إلى الإنجليزية. وبعد سنوات من دراسة علم النفس للأطفال، أنشأ شركة متخصصة في "تعلّم الآلة" استحوذت عليها "أوبر" لاحقًا.

 وفي آذار/مارس، كان من موقعي الرسالة التي نشرها مئات الخبراء للمطالبة بتعليق تطوير أنظمة ذكاء اصطناعي فائقة القوة مثل روبوت الدردشة "تشات جي بي تي" الذي أطلقته شركة "أوبن إيه آي" الناشئة لمدة ستة أشهر للتثبت من أن البرامج المطروحة حاليًّا للاستخدام "موثوقة وآمنة وشفافة ووفية.. وموائِمة" للقيم البشرية.

 لكنه لم يوقّع الإعلان المقتضب الذي أصدرته مجموعة من كبار رجال الأعمال والخبراء هذا الأسبوع وكان له وقع شديد.

 ودعا موقّعو الإعلان ومن أبرزهم مبتكر "تشات جي بي تي" نفسه سام التمان، والمهندس الكبير السابق لدى "غوغل" جيفري هينتون الذي يعتبر من الآباء المؤسسين للذكاء الاصطناعي، ورئيس شركة "ديب مايند" للأبحاث في مجال الذكاء الاصطناعي التابعة لغوغل ديميس هاسابيس، والمدير الفني لمايكروسوف كيفن سكوت، إلى التصدي لـ"مخاطر انقراض" البشرية "المرتبطة بالذكاء الاصطناعي".

انقراض الجنس البشري.. مسألة في غاية التعقيد في الواقع، يمكننا تصور كلّ أنواع الآفات، لكن ثمة من سينجو حتمًا"
غاري ماركوس

حرب عرضية

وأطلق النجاح الهائل الذي أحرزه برنامج "تشات جي بي تي" القادر على إنتاج أي نوع من النصوص بناء على طلب مستخدميه، سباقًا بين شركات التكنولوجيا العملاقة إلى هذا الذكاء الاصطناعي "التوليدي"، غير أنه أثار في المقابل الكثير من التحذيرات والدعوات إلى وضع ضوابط لهذا المجال.

 وصدرت هذه التحذيرات حتى عن مطوري هذه الأنظمة المعلوماتية الذين يعملون من أجل التوصل إلى ذكاء اصطناعي "عام" يتميز بقدرات معرفية شبيهة بقدرات البشر.

 وقال غاري ماركوس: "إن كنتم مقتنعين فعلًا بأن هناك خطرًا وجوديًّا، فلماذا تعملون على ذلك بالأساس؟ هذا سؤال منطقي".

 ورأى أن "انقراض الجنس البشري.. مسألة في غاية التعقيد في الواقع، يمكننا تصور كلّ أنواع الآفات، لكن ثمة من سينجو حتمًا".

 وشدد في المقابل على أن هناك سيناريوهات ذات مصداقية يمكن في سياقها أن يتسبب الذكاء الاصطناعي "بأضرار هائلة".

 وتابع: "قد ينجح البعض على سبيل المثال في التلاعب بالأسواق. وقد نتهم الروس بتحمل المسؤولية ونهاجمهم في حين أن لا ضلوع لهم إطلاقا، وقد ننجر إلى حرب عرضية تهدد بأن تتحول إلى حرب نووية".

أخبار ذات صلة
الذكاء الاصطناعي يمتد إلى البحث عن نفايات الفضاء

نظام سلطوي

وعلى المدى القريب، يعرب غاري ماركوس عن مخاوف على الديمقراطية.

 فبرمجيات الذكاء الاصطناعي التوليدي قادرة بصورة متزايدة على إنتاج صور زائفة وقريبًا فيديوهات واقعية، بكلفة زهيدة. وفي هذا السياق، فإن "الانتخابات ستحسم للذين يبرعون أكثر من سواهم في نشر التضليل الإعلامي، وهؤلاء قد يعدّلون القوانين بعد فوزهم.. ويفرضون نظامًا سلطويًّا".

 وشدد على أن "الديمقراطية تقوم على امتلاك معلومات منطقية واتخاذ قرارات صائبة. وإن لم يعد أحد يميز بين ما هو صحيح وما هو غير ذلك، عندها ينتهي الأمر".

 لكن هذا لا يعني برأي الخبير الذي صدر له كتاب بعنوان "إعادة إطلاق الذكاء الاصطناعي" Rebooting AI أن هذه التكنولوجيا لا تحمل وعودًا.

 وقال: "ثمة فرصة بأن نستخدم ذات يوم نظام ذكاء اصطناعي لم نبتكره بعد، يساعدنا على إحراز تقدم في العلم، في الطب، وفي رعاية المسنين.. لكننا في الوقت الحاضر غير جاهزين. نحن بحاجة إلى تنظيمات وإلى جعل البرامج أكثر موثوقية".

 ولدى مثوله أمام لجنة في الكونغرس الأمريكي في أيار/مايو، دعا إلى إنشاء وكالة وطنية أو دولية يعهد إليها بحوكمة الذكاء الاصطناعي.

 وهو مشروع يحظى أيضًا بتأييد سام ألتمان العائد من جولة أوروبية حضَّ خلالها القادة السياسيين على البحث عن "توازن عادل" بين الإنتاج والابتكار.

 لكن غاري ماركوس حذَّر من ترك السلطة بهذا الشأن بأيدي الشركات وقال: "ذكّرتنا الأشهر الأخيرة إلى أي حد هي التي تتخذ القرارات الهامة دون أن تأخذ بالضرورة.. بالآثار الجانبية".

الأكثر قراءة

No stories found.


logo
إرم نيوز
www.eremnews.com