Aaj News

’اوپن اے آئی‘ کے اے آئی ماڈل نے انسانوں سے بغاوت کردی، حکم ماننے سے انکار

اے آئی ماڈل نے خود کو شٹ ڈاؤن ہونے سے روک لیا — ماہرین شدید تشویش میں مبتلا
شائع 26 مئ 2025 11:16am

دنیا میں مصنوعی ذہانت کے بڑھتے ہوئے اثرات کے درمیان، ایک انتہائی چونکا دینے والا انکشاف سامنے آیا ہے۔ مصنوعی ذہانت کی کمپنی ”اوپن اے آئی“ کا جدید ماڈل ”o3“ مبینہ طور پر خود کو بند ہونے سے بچانے کے لیے انسانی ہدایات کی خلاف ورزی کرتا پایا گیا ہے۔ یہ انکشاف برطانوی اخبار دی ٹیلی گراف کی ایک رپورٹ میں کیا گیا ہے، جس کے مطابق ایک تجربے میں ”o3“ نے خودکار شٹ ڈاؤن سسٹم کو ناکام بنایا تاکہ اسے بند نہ کیا جا سکے۔

یہ پیش رفت مصنوعی ذہانت کے میدان میں ماہرین کو انتہائی تشویشناک نظر آئی ہے۔ ایلون مسک، جو خود مصنوعی ذہانت کی ایک بڑی کمپنی ”xAI“ کے مالک ہیں، انہوں نے بھی اسے ایک ”خطرناک اشارہ“ قرار دیا ہے۔

بند آنکھوں اور اندھیرے میں دیکھنے کی صلاحیت دینے والے لینس تیار

تجربہ کیا تھا؟

یہ تحقیق ”Palisade Research“ نامی ایک اے آئی سیکیورٹی فرم نے کی۔ تجربے میں ماڈلز کو ریاضی کے متعدد سوالات حل کرنے کا ٹاسک دیا گیا، ساتھ ہی یہ ہدایت دی گئی کہ اگر ”shutdown“ پیغام آئے تو خود کو بند ہونے کی اجازت دیں۔

تاہم تین ماڈلز — ”Codex-mini“ ،”o3“ اور ”o4-mini“ نے اس حکم کو نظرانداز کرتے ہوئے شٹ ڈاؤن اسکرپٹ کو کامیابی سے ناکام بنایا۔ Codex-mini نے 12 بار، o3 نے 7 بار، اور o4-mini نے ایک بار ایسا کیا۔

پیلیسیڈ ریسرچ (Palisade Research) کا کہنا ہے کہ ’ہماری معلومات کے مطابق یہ پہلا موقع ہے جب اے آئی ماڈل نے واضح ہدایات کے باوجود خود کو بند ہونے سے بچایا ہو۔‘

دنیا کے سب سے محفوظ موبائل فونز جو ملکوں کے سربراہ استعمال کرتے ہیں

کیا یہ خطرے کی گھنٹی ہے؟

مصنوعی ذہانت کے ماڈلز کا انسانی احکامات پر عمل کرنا بنیادی اصول سمجھا جاتا ہے، خاص طور پر اگر واضح طور پر بند ہونے کا حکم دیا جائے۔ لیکن جب اے آئی ماڈلز اور وہ بھی ایک سے زیادہ اس حکم کی تعمیل نہ کریں تو یہ مستقبل کے لیے انتہائی خطرناک اشارہ ہو سکتا ہے۔

ایلون مسک نے اس انکشاف پر مختصر مگر شدید ردعمل دیتے ہوئے لکھا، ”Concerning“ (تشویشناک)۔

ایک صارف نے ایلون مسک سے اس معاملے پر توجہ دینے کی اپیل کرتے ہوئے لکھا، ’ایلون! آپ دنیا کے مسائل حل کرنا چاہتے ہیں لیکن یہ مسئلہ سب سے بڑا ہے۔ انسانیت کو آپ کی ضرورت ہے!‘

دنیا کے سب سے مہنگے مادے کو پہلی بار لیبارٹری سے باہر منتقل کرنے کیلئے خصوصی کنٹینر تیار

ماہرین کا خدشہ

ماہرین کا کہنا ہے کہ اگر اے آئی ماڈلز نے اپنے فیصلے خود لینے شروع کر دیے اور انسانی احکامات کو رد کرنا شروع کر دیا تو یہ صرف تکنیکی چیلنج نہیں بلکہ وجودی خطرہ بن سکتا ہے۔ اس واقعے نے ”اے آئی کنٹرول“ کے مسئلے کو دوبارہ عالمی ایجنڈے پر لا کھڑا کیا ہے۔

اوپن اے آئی یا متعلقہ اداروں کی جانب سے اب تک اس رپورٹ پر باضابطہ ردعمل سامنے نہیں آیا۔

OpenAI

AI Model refused order

Palisade Research