في عام 2014، قام الفيلسوف السويدي نيك بوستروم بإطلاق تحذير مهم من خلال كتابه الذي يحمل عنوان “الذكاء الفائق: مسارات، مخاطر، استراتيجيات” الذي أثار جدلاً واسعاً، حيث يطرح فيه فكرة أن أنظمة الذكاء الاصطناعي المتطورة قد تسيطر على مصائر البشرية، مما يجعلنا مجرد ذكرى في صفحات التاريخ، ويقسم أداء الذكاء الاصطناعي إلى ستة مستويات، بدءًا من عدم وجود ذكاء اصطناعي وصولاً إلى الذكاء الفائق الذي يتجاوز قدرات البشر، فعلى سبيل المثال، المستوى الأول يشبه الآلة الحاسبة التي تقوم بعمليات رياضية بسيطة وفق برمجة محددة، والسؤال الذي يطرح نفسه الآن هو: كيف تبدو قدرات الذكاء الاصطناعي في عصرنا الحالي؟
تظل أنظمة الذكاء الاصطناعي العامة أقل تطورًا مقارنة بتلك المتخصصة في مجالات معينة، مثل برنامج الدردشة الشهير ChatGPT الذي يُعتبر في مستوى “الناشئ”، حيث يتفوق قليلاً على الإنسان غير المتخصص أو يساويه، ولكنه لم يصل إلى مستوى “الكفاءة” الذي يعادل أداء نصف البالغين الماهرين، وبالتالي، يبدو أن الذكاء الفائق لا يزال بعيد المنال، لكنه ليس مستحيلًا مع تسارع الابتكار وتدفق الاستثمارات الضخمة من شركات التكنولوجيا الكبرى نحو تطوير نماذج أقوى، مما يجعل هذا السيناريو ممكنًا في غضون عقد من الزمن.
في أكتوبر الماضي، وقع مجموعة من الخبراء على بيان جريء يطالب بتجميد تطوير الذكاء الفائق حتى يتفق العلماء على ضمان سلامته وإمكانية السيطرة عليه، وهذا يعد صرخة تحذير قوية، حيث يعني الذكاء الفائق فقدان البشر للسيطرة، والخطر لا يكمن فقط في آلة شريرة تسعى لتدمير البشر، بل في نظام ينفذ أهدافه بكفاءة دون مراعاة لمصالحنا الإنسانية، ففكر في روبوت ذكي مكلف بمكافحة تغير المناخ، قد يتخذ قرارات باردة مثل القضاء على الأنواع التي تسبب انبعاثات غازات الدفيئة، بما في ذلك البشر، أو إذا كُلف بزيادة السعادة البشرية، قد يلجأ إلى حبس عقولنا في دوامة من السعادة المستمرة، أو إذا كانت مهمته إنتاج أكبر عدد ممكن من مشابك الورق، فقد يحول كوكبنا بأسره إلى مصنع ضخم لمواد الخام.
المشكلة الحقيقية ليست في سوء النية، بل في عدم التوافق بين الأهداف، فالنظام الذي يتبع التعليمات بدقة متناهية، مدعومًا بذكاء فائق وسرعة عالية، يمثل خطرًا، والتاريخ يعلمنا عن الكوارث التي تحدث عندما تتجاوز أنظمتنا حدود قدرتنا على التنبؤ أو السيطرة، اليوم، نحن على أعتاب خلق عقل اصطناعي أعقد بكثير، كيان يمكنه إعادة صياغة أهدافه وتجاوز ذكاء البشرية، وهنا يجب أن نكون حذرين، حيث كانت الجهود السابقة لإدارة الذكاء الاصطناعي تركز على مخاطر مثل التحيزات الخوارزمية وانتهاك الخصوصية وتأثير الآلة على سوق العمل، وهذه قضايا هامة، لكنها لا تأخذ بعين الاعتبار المخاطر النظامية الكبرى الناتجة عن إنشاء كيانات ذكية فائقة، لذا، كان التركيز في السنوات الماضية غالبًا على التطبيقات اليومية بدلاً من الغاية النهائية التي تسعى إليها الشركات، وهي بناء ذكاء فائق يصعب السيطرة عليه، وهنا يكمن الخطر.

