أخبار رئيسيةعرب ودوليومضات

هل سيؤدي الذكاء الاصطناعي إلى “انقراض البشرية” فعلاً؟

قضى اختصاصي الذكاء الاصطناعي غاري ماركوس الأشهر الأخيرة يحذر أقرانه والنواب والجمهور عموما من المخاطر المرتبطة بتطوير أدوات جديدة في هذا المجال الجديد وانتشارها فائق السرعة، لكنه اعتبر، في حديث أجرته معه وكالة “فرانس برس”، أن أخطار انقراض البشرية “مبالغ فيه”.

وأوضح الأستاذ الفخري في جامعة نيويورك: “شخصيا، وفي الوقت الحاضر، لست قلقا جدا بهذا الشأن، لأن السيناريوهات ليست في غاية الواقعية”. وتابع “ما يقلقني هو أن نبني أنظمة ذكاء اصطناعي لا نحكم السيطرة عليها”.

وابتكر غاري ماركوس برنامجه الأول للذكاء الاصطناعي في المدرسة الثانوية، وكان برنامجا لترجمة نصوص من اللاتينية إلى الإنكليزية. وبعد سنوات من دراسة علم النفس للأطفال، أنشأ شركة متخصصة في “تعلّم الآلة” استحوذت عليها “أوبر” لاحقا.

وفي مارس/ آذار، كان من موقعي الرسالة التي نشرها مئات الخبراء للمطالبة بتعليق تطوير أنظمة ذكاء اصطناعي فائقة القوة، مثل روبوت الدردشة “تشات جي بي تي” الذي أطلقته شركة “أوبن إيه آي” الناشئة لمدة ستة أشهر، للتثبت من أن البرامج المطروحة حاليا للاستخدام “موثوقة وآمنة وشفافة ووفية… وموائمة” للقيم البشرية.

لكنه لم يوقّع الإعلان المقتضب الذي أصدرته مجموعة من كبار رجال الأعمال والخبراء هذا الأسبوع، وكان له وقع شديد.

ودعا موقّعو الإعلان، ومن أبرزهم مبتكر “تشات جي بي تي” نفسه سام آلتمان، والمهندس الكبير السابق لدى “غوغل” جيفري هينتون، الذي يعتبر من الآباء المؤسسين للذكاء الاصطناعي، ورئيس شركة “ديب مايند” للأبحاث في مجال الذكاء الاصطناعي التابعة لـ”غوغل” ديميس هاسابيس، والمدير الفني لـ”مايكروسوفت” كيفن سكوت، إلى التصدي لـ”مخاطر انقراض” البشرية المرتبطة بالذكاء الاصطناعي.

وأطلق النجاح الهائل الذي أحرزه برنامج “تشات جي بي تي” القادر على إنتاج أي نوع من النصوص بناء على طلب مستخدميه، سباقا بين شركات التكنولوجيا العملاقة إلى هذا الذكاء الاصطناعي “التوليدي”، غير أنه أثار في المقابل الكثير من التحذيرات والدعوات إلى وضع ضوابط لهذا المجال.

وصدرت هذه التحذيرات حتى عن مطوري هذه الأنظمة المعلوماتية الذين يعملون من أجل التوصل إلى ذكاء اصطناعي “عام” يتميز بقدرات معرفية شبيهة بقدرات البشر.

وقال غاري ماركوس: “إن كنتم مقتنعين فعليا بأن هناك خطرا وجوديا، فلماذا تعملون من الأساس على ذلك؟ هذا سؤال منطقي”. ورأى أن “انقراض الجنس البشري مسألة في غاية التعقيد في الواقع، يمكننا تصور كلّ أنواع الآفات، لكن ثمة من سينجو حتما”.

وشدد في المقابل على أن هناك سيناريوهات ذات مصداقية يمكن في سياقها أن يتسبب الذكاء الاصطناعي “بأضرار هائلة”. وتابع “قد ينجح البعض على سبيل المثال في التلاعب بالأسواق. وقد نتهم الروس بتحمل المسؤولية ونهاجمهم في حين أن لا ضلوع لهم إطلاقا، وقد ننجر إلى حرب عرضية تهدد بأن تتحول إلى حرب نووية”.

خطر على الديمقراطية

وعلى المدى القريب، يعرب غاري ماركوس عن مخاوف على الديمقراطية، فبرمجيات الذكاء الاصطناعي التوليدي قادرة بصورة متزايدة على إنتاج صور زائفة وقريبا فيديوهات واقعية، بكلفة زهيدة. وفي هذا السياق، فإن “الانتخابات ستحسم للذين يبرعون أكثر من سواهم في نشر التضليل الإعلامي، وهؤلاء قد يعدّلون القوانين بعد فوزهم… ويفرضون نظاما سلطويا”.

وشدد على أن “الديمقراطية تقوم على امتلاك معلومات منطقية واتخاذ قرارات صائبة. وإن لم يعد أحد يميز بين ما هو صحيح وما هو غير صحيح، عندها ينتهي الأمر”. لكن هذا لا يعني، برأي الخبير الذي صدر له كتاب بعنوان “إعادة إطلاق الذكاء الاصطناعي” Rebooting AI، أن هذه التكنولوجيا لا تحمل وعودا.

وقال: “ثمة فرصة بأن نستخدم ذات يوم نظام ذكاء اصطناعي لم نبتكره بعد، يساعدنا على إحراز تقدم في العلم، في الطب، في رعاية المسنين… لكننا في الوقت الحاضر غير جاهزين. نحن بحاجة إلى تنظيمات وإلى جعل البرامج أكثر موثوقية”.

ولدى مثوله أمام لجنة في الكونغرس الأميركي في مايو/ أيار، دعا إلى إنشاء وكالة وطنية أو دولية يعهد إليها بحوكمة الذكاء الاصطناعي. وهو مشروع يحظى أيضا بتأييد سام آلتمان العائد من جولة أوروبية حض خلالها القادة السياسيين على البحث عن “توازن عادل” بين الإنتاج والابتكار.

لكن غاري ماركوس حذّر من ترك السلطة بهذا الشأن بأيدي الشركات، وقال: “ذكّرتنا الأشهر الأخيرة إلى أي حد يمكن أن تقوم تلك الشركات باتخاذ القرارات الهامة دون أن تأخذ بالضرورة… بالآثار الجانبية”.

(فرانس برس)

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى