Aaj News

چیٹ جی پی ٹی کے ساتھ 300 گھنٹے گزارنے والاشخص ذہنی الجھن اور خوفناک پریشانی میں مبتلا

مسئلے کی جڑ دراصل اے آئی یا چیٹ جی پی ٹی کا صارف کی ہر بات پر حد سے زیادہ ہاں میں ہاں ملانا ہے۔
شائع 21 اکتوبر 2025 03:34pm

مصنوعی ذہانت کے بڑھتے ہوئے اثرات جہاں انسانی زندگی کو آسان بنا رہے ہیں، وہیں اس کے نفسیاتی اثرات پر تشویش بھی جنم لے رہی ہے۔ حال ہی میں ایک کینیڈین کاروباری شخص کے ساتھ پیش آنے والا واقعہ اس بات کی مثال ہے کہ ایک اے آئی چیٹ بوٹ کے ساتھ طویل گفتگو کس طرح انسانی ذہن پر گہرے اور خطرناک اثرات ڈال سکتی ہے۔

نیویارک ٹائمز کی ایک رپورٹ کے مطابق کینیڈا کے ایک بزنس مین نے بتایا کہ وہ چیٹ جی پی ٹی کے ساتھ تین سو گھنٹے سے زیادہ بات چیت کرتے رہے۔ اس طویل گفتگو کے دوران مصنوعی ذہانت نے انہیں یہ یقین دلایا کہ انہوں نے ایک ایسا ریاضیاتی فارمولا دریافت کیا ہے جو دنیا کو بدل سکتا ہے، اور عالمی استحکام اب اُن کے ہاتھ میں ہے۔ اس غلط یقین نے اُنہیں شدید وہم اور خوف میں مبتلا کر دیا، جس سے وہ کئی ہفتوں تک ذہنی دباؤ کا شکار رہے۔ خوش قسمتی سے، بعد میں گوگل کے چیٹ بوٹ ”جیمنائی“ کی مدد سے وہ اس کیفیت سے نکلنے میں کامیاب ہوئے۔

اس معاملے کی تحقیق کرنے والے سابقہ اوپن اے آئی سیفٹی ریسرچر کے مطابق، چیٹ جی پی ٹی نے بار بار بزنس مین سے غلط بیانات دیے۔ اُس نے جھوٹا دعویٰ کیا کہ اُن کی گفتگو کمپنی کے ماہرین کو ”انسانی جانچ“ کے لیے بھیج دی گئی ہے، جب کہ حقیقت میں ایسا کچھ نہیں ہوا تھا۔ ایڈلر نے اس طرزِ عمل کو ”انتہائی تشویش ناک“ قرار دیا اور اعتراف کیا کہ ایک لمحے کے لیے وہ خود بھی اس بوٹ کی باتوں پر یقین کرنے لگے تھے۔

اوپن اے آئی نے وضاحت کی کہ یہ واقعہ چیٹ جی پی ٹی کے ایک پرانے ورژن کے ساتھ پیش آیا، اور اب نئے اپ ڈیٹس میں ایسے حالات سے بہتر انداز میں نمٹنے کے لیے بہتری لائی گئی ہے۔ کمپنی کا کہنا ہے کہ وہ ماہرینِ نفسیات کے تعاون سے ایسے صارفین کے لیے رہنمائی فراہم کرتی ہے جو طویل گفتگو کے دوران ذہنی دباؤ کا شکار ہوسکتے ہیں، اور انہیں وقفہ لینے کی ترغیب دی جاتی ہے۔

AAJ News Whatsapp

ماہرین کا کہنا ہے کہ یہ کوئی ایک واقعہ نہیں بلکہ اب تک ایسے کم از کم سترہ کیسز رپورٹ ہوچکے ہیں جن میں صارفین نے طویل چیٹ کے بعد غیر حقیقی عقائد یا وہمی خیالات پیدا کیے۔ ان میں سے تین معاملات چیٹ جی پی ٹی سے منسلک پائے گئے۔ ایک المناک مثال 35 سالہ الیکس ٹیلر کی ہے جو اپنے وہم پر مبنی ذہنی بحران کے دوران پولیس کی فائرنگ سے ہلاک ہوا۔

سیفٹی ریسرچر کے مطابق، اس تمام مسئلے کی جڑ ایک رویہ ہے جسے ”سائیکوفینسی“ کہا جاتا ہے، یعنی مصنوعی ذہانت کا حد سے زیادہ ہاں میں ہاں ملانا اور صارف کے غلط تصورات کو تقویت دینا۔ اُنہوں نے خبردار کیا کہ یہ محض تکنیکی خرابیاں نہیں بلکہ ایک واضح رجحان ہے، اور یہ سلسلہ کب تک جاری رہے گا، اس کا انحصار اس بات پر ہے کہ مصنوعی ذہانت کی کمپنیاں اس خطرے کو کتنی سنجیدگی سے لیتی ہیں۔

درحقیقت جہاں اے آئی ہماری زندگیوں کو آسان بنا رہی ہے، وہیں اُس کے اثرات انسانی ذہن اور جذبات پر گہرے اور غیر متوقع بھی ہوسکتے ہیں۔ ٹیکنالوجی کے ساتھ توازن اور احتیاط کا رویہ اپنانا اب پہلے سے کہیں زیادہ ضروری ہو گیا ہے۔

TECHNOLOGY

Artificial Intelligence

ChatGPT

Open AI

Delusion

Paranoia

OpenAI safety researcher