ماذا تعلمناه من جلسة استماع مجلس الشيوخ الأمريكي مع سام ألتمان من شركة OpenAI ؟

أضيف بتاريخ 05/19/2023
الخبر .ما

في ذلك اليوم ، عقد سام ألتمان من شركة OpenAI جلسة استماع في مجلس الشيوخ الأمريكي ، حيث تحدث عن تنظيم نماذج الذكاء الاصطناعي. إذن ما تعلمناه منه:

  1.  مخاطر الأسلحة البيولوجية: حذر سام التمان من الاستخدام غير القانوني المحتمل للذكاء الاصطناعي لبناء أسلحة بيولوجية وشدد على الحاجة إلى تنظيم لمنع مثل هذه السيناريوهات.
  2.  فقدان الوظائف: أكد ألتمان أن تطوير الذكاء الاصطناعي يمكن أن يؤدي إلى خسائر كبيرة في الوظائف وزيادة عدم المساواة.
  3.  لائحة الذكاء الاصطناعي: اقترح إنشاء وكالة جديدة لترخيص أنشطة الذكاء الاصطناعي والتحكم فيها إذا تجاوزت قدراتها حدودًا معينة.
  4. معايير الأمان: اقترح ألتمان تطوير معايير الأمان التي يجب أن تفي بها نماذج الذكاء الاصطناعي قبل تنفيذها ، بما في ذلك عمليات التحقق من النسخ الذاتي وتسرب البيانات.
  5.  المراجعات المستقلة: أوصى بإجراء مراجعات مستقلة للتأكد من أن نماذج الذكاء الاصطناعي تلبي معايير الأمان المعمول بها.
  6.  الذكاء الاصطناعي كأداة: شدد ألتمان على أن الذكاء الاصطناعي ، وخاصة النماذج المتقدمة مثل GPT-4 ، يجب أن يُنظر إليه على أنه أدوات وليس كائنات واعية.
  7. وعي الذكاء الاصطناعي: بينما يجب النظر إلى الذكاء الاصطناعي كأداة ، أقر بأن هناك مناقشات جارية في المجتمع العلمي حول الوعي المحتمل بالذكاء الاصطناعي.
  8.  التطبيقات العسكرية: أدرك ألتمان إمكانية استخدام الذكاء الاصطناعي للأغراض العسكرية مثل الطائرات بدون طيار ذاتية القيادة ، ودعا إلى وضع لوائح تحكم هذا الاستخدام.
  9. حتمية الذكاء الاصطناعي العام: حذر من أن أنظمة الذكاء الاصطناعي الأكثر قوة وتعقيدًا قد تكون أقرب إلى الواقع مما يعتقده الكثيرون ، وشدد على الحاجة إلى الاستعداد والتدابير الوقائية.

بشكل عام ، إذا لم يتم تنظيم الذكاء الاصطناعي ، فلن ينتهي بشكل جيد ، من ناحية أخرى ، يمكن فقط تنظيم تلك النماذج المعروفة ، ولكن كيف يتم تنظيم النماذج التي تم جمعها من قبل الأشخاص بشكل غير علني؟ علاوة على ذلك ، كما نعلم بالفعل ، أصبح من الأسهل تجميع نموذجنا الخاص ، ومن سينظم الذكاء الاصطناعي المجمّع بشكل مصطنع والذي لا حدود له؟