يشهد مجال الذكاء الاصطناعي انتشاراً لافتاً لفكرة «برومبت التحقق من الحقائق»، وهي منهجية تضبط سلوك النماذج اللغوية كي تميل إلى الشك المهني، وتدقق في الادعاءات قبل إنتاج الإجابات. الفكرة بسيطة: تزويد ChatGPT بتعليمات ثابتة تجعله يراجع الحجج، يقارن المصادر، ويشير إلى مواطن الضعف بدل قبول المعلومة كما هي.
لتفعيل هذا النهج عملياً، تُكتب تعليمات واضحة في خانة التعليمات المخصصة تطلب من ChatGPT التصرف كمدقق حقائق متحفظ: تحديد الادعاء، صياغة أسئلة تحقق، البحث عن أدلة مؤيدة ومعارضة، الإشارة إلى الثغرات المنهجية، وتقديم خلاصة مبررة. بهذه البنية، يتحول النموذج من مولد نصوص إلى أداة تدقيق تساعد على تقليل الأخطاء وتقاطع المعلومات قبل اعتمادها.
هذا الأسلوب يرفع موثوقية المخرجات في أعمال الصحافة والبحث العلمي وصناعة المحتوى، لأنه يدفع النموذج إلى تبرير الاستنتاجات، وذكر درجة الثقة، والتنبيه إلى عدم اليقين عند غياب الأدلة. كما يتيح فحص الأخبار والبيانات العلمية بسرعة، مع الحفاظ على ممارسات مكافحة المعلومات المضللة عبر التحقق من تاريخ المواد وسياقها ونسبتها لمصادرها الأصلية.
لتحسين النتائج، تُصاغ التعليمات بلغة مباشرة وتُحدَّث دورياً لتناسب نوعية الموضوعات: أخبار عاجلة، مراجعات علمية، بيانات سوق، أو محتوى تعليمي. إدراج كلمات مفتاحية مثل التحقق من المعلومات، تدقيق الحقائق، مكافحة التضليل، ونماذج لغوية يساعد أيضاً على ضبط سياق الإجابات ويعزز قابلية الاكتشاف عبر محركات البحث.
عند مراجعة ادعاء ما، اطلب من ChatGPT توضيح ما الذي يمكن التحقق منه فعلياً، وما يحتاج إلى مصادر أولية، وما يظل رأياً لا حقيقة. شجّعه على ذكر الفجوات المعرفية والبدائل المعقولة، وعلى تمييز الاستدلال من الدليل. بهذه الممارسات، يصبح ChatGPT جزءاً من سير عمل تدقيق حديث يوازن بين السرعة والدقة، ويمنح صُنّاع المحتوى أداة فعّالة للحد من الأخطاء وتعزيز الثقة.


