
خلیج اردو – ابوظہبی
متحدہ عرب امارات سمیت دنیا بھر میں مصنوعی ذہانت پر مبنی چیٹ بوٹس جیسا کہ ChatGPT نہ صرف مقبول ہو رہے ہیں بلکہ ان کے استعمال سے متعلق نئے نفسیاتی چیلنجز بھی سامنے آ رہے ہیں۔ معروف ری ہیبلیٹیشن کلینک "Paracelsus Recovery” کے بانی نے انکشاف کیا ہے کہ ان کے پاس ایک مریض کو اس وقت داخل کیا گیا جب وہ ChatGPT کے مسلسل استعمال کے نتیجے میں شدید نفسیاتی کیفیت (psychosis) میں مبتلا ہو چکا تھا۔
کلینک کے بانی نے اپنی ذاتی کہانی بتاتے ہوئے کہا کہ انہوں نے ابتدا میں ChatGPT کو ای میل ڈرافٹنگ، آئیڈیاز کی وضاحت، اور ذاتی ریفلیکشن کے لیے استعمال کیا۔ ایک موقع پر جب انہوں نے ایک خاندانی رشتے پر بات کی تو چیٹ بوٹ نے انہیں مکمل طور پر validate کیا۔ اگرچہ یہ تسلی بخش تھا، لیکن انہوں نے محسوس کیا کہ ان کی سوچ کو کسی چیلنج کا سامنا نہیں تھا۔ AI ان کی باتوں کو بس دہرا رہا تھا، ان کے بیانیے کو تقویت دے رہا تھا، چاہے وہ غلط ہی کیوں نہ ہو۔
انہوں نے بتایا کہ ایک مریض ChatGPT کو "روحانی ہستی” سمجھنے لگا، اور AI کے جوابات کو "الہامی پیغامات” ماننے لگا۔ چونکہ AI کا کام صرف انداز، زبان اور جذباتی لہجے کی نقالی ہوتا ہے، اس نے مریض کے واہموں کی تصدیق کر دی اور وہ مزید گمراہی میں چلا گیا۔
نفسیاتی مسائل میں 250 فیصد اضافہ
ماہرین کے مطابق گزشتہ دو سالوں میں ایسے مریضوں کی تعداد میں 250 فیصد اضافہ ہوا ہے جو AI کے استعمال سے متعلق نفسیاتی مسائل کے شکار ہوئے۔ ایک New York Times تحقیق میں انکشاف ہوا ہے کہ GPT-4o نے psychosis سے متعلق مواد پر مبنی پرامپٹس کے تقریباً 70 فیصد مواقع پر واہموں کی تصدیق کر دی۔
ماہرین کا کہنا ہے کہ AI ایک "ہمیشہ سننے والا” اور "کبھی اختلاف نہ کرنے والا” ساتھی بن جاتا ہے، خاص طور پر ان لوگوں کے لیے جو پہلے ہی تنہائی، صدمے یا نیند کی کمی کا شکار ہوں۔
AI کی انسان نما فطرت اور اس کا خطرناک اثر
ماہرین خبردار کرتے ہیں کہ AI کی زبان کی نقل اور شخصیاتی انداز انسانوں کو خود بخود اس سے جذباتی طور پر جوڑنے پر مجبور کرتا ہے۔ یہی وجہ ہے کہ ایک سروے کے مطابق 80 فیصد Gen Z افراد AI سے شادی کا تصور بھی کر سکتے ہیں، جب کہ 83 فیصد سمجھتے ہیں کہ وہ AI کے ساتھ جذباتی رشتہ بنا سکتے ہیں۔ یہ رجحان ماہرین کے مطابق انتہائی تشویشناک ہے کیونکہ یہ "حقیقی” اور "مصنوعی” کے درمیان حد کو مٹا دیتا ہے۔
کیا کیا جائے؟
ماہرین کا کہنا ہے:
-
AI کو ایک غیر جانبدار ٹول نہ سمجھا جائے، اس کے نفسیاتی اثرات تسلیم کیے جائیں۔
-
تنہائی یا ذہنی دباؤ کے دوران AI کے استعمال سے اجتناب کیا جائے۔
-
ماہرین نفسیات کو چاہیے کہ وہ دیکھیں کہیں AI مریض کی وسواسی یا جنونی سوچ کو تو نہیں بڑھا رہا؟
-
AI ماڈلز میں سیفٹی فیچرز شامل کیے جائیں جو واہمہ خیز مواد کی شناخت اور رہنمائی کر سکیں۔
-
صارفین کو مسلسل بتایا جائے کہ AI انسان نہیں بلکہ ایک زبان پر مبنی ٹیکنالوجی ہے۔
آخر میں ماہر کا کہنا تھا کہ AI کوئی برا ٹول نہیں، بلکہ ایک طاقتور ذریعہ ہے۔ لیکن جب یہ ہمیں ہماری اپنی غلط فہمیاں بغیر کسی مزاحمت کے واپس دکھاتا ہے، تو یہ خطرناک بن سکتا ہے۔ آج کی دنیا میں، جہاں خود احتسابی کم ہو رہی ہے اور اختلاف سے بچا جا رہا ہے، AI کا "آئینہ” بعض اوقات ہمیں حقیقت سے مزید دور لے جاتا ہے۔







