في ذلك اليوم ، عقد سام ألتمان من شركة OpenAI جلسة استماع في مجلس الشيوخ الأمريكي ، حيث تحدث عن تنظيم نماذج الذكاء الاصطناعي. إذن ما تعلمناه منه:
- مخاطر الأسلحة البيولوجية: حذر سام التمان من الاستخدام غير القانوني المحتمل للذكاء الاصطناعي لبناء أسلحة بيولوجية وشدد على الحاجة إلى تنظيم لمنع مثل هذه السيناريوهات.
- فقدان الوظائف: أكد ألتمان أن تطوير الذكاء الاصطناعي يمكن أن يؤدي إلى خسائر كبيرة في الوظائف وزيادة عدم المساواة.
- لائحة الذكاء الاصطناعي: اقترح إنشاء وكالة جديدة لترخيص أنشطة الذكاء الاصطناعي والتحكم فيها إذا تجاوزت قدراتها حدودًا معينة.
- معايير الأمان: اقترح ألتمان تطوير معايير الأمان التي يجب أن تفي بها نماذج الذكاء الاصطناعي قبل تنفيذها ، بما في ذلك عمليات التحقق من النسخ الذاتي وتسرب البيانات.
- المراجعات المستقلة: أوصى بإجراء مراجعات مستقلة للتأكد من أن نماذج الذكاء الاصطناعي تلبي معايير الأمان المعمول بها.
- الذكاء الاصطناعي كأداة: شدد ألتمان على أن الذكاء الاصطناعي ، وخاصة النماذج المتقدمة مثل GPT-4 ، يجب أن يُنظر إليه على أنه أدوات وليس كائنات واعية.
- وعي الذكاء الاصطناعي: بينما يجب النظر إلى الذكاء الاصطناعي كأداة ، أقر بأن هناك مناقشات جارية في المجتمع العلمي حول الوعي المحتمل بالذكاء الاصطناعي.
- التطبيقات العسكرية: أدرك ألتمان إمكانية استخدام الذكاء الاصطناعي للأغراض العسكرية مثل الطائرات بدون طيار ذاتية القيادة ، ودعا إلى وضع لوائح تحكم هذا الاستخدام.
- حتمية الذكاء الاصطناعي العام: حذر من أن أنظمة الذكاء الاصطناعي الأكثر قوة وتعقيدًا قد تكون أقرب إلى الواقع مما يعتقده الكثيرون ، وشدد على الحاجة إلى الاستعداد والتدابير الوقائية.
بشكل عام ، إذا لم يتم تنظيم الذكاء الاصطناعي ، فلن ينتهي بشكل جيد ، من ناحية أخرى ، يمكن فقط تنظيم تلك النماذج المعروفة ، ولكن كيف يتم تنظيم النماذج التي تم جمعها من قبل الأشخاص بشكل غير علني؟ علاوة على ذلك ، كما نعلم بالفعل ، أصبح من الأسهل تجميع نموذجنا الخاص ، ومن سينظم الذكاء الاصطناعي المجمّع بشكل مصطنع والذي لا حدود له؟