
مصنوعی ذہانت (اے آئی) کی ترقی کے حوالے سے ایلون مسک نے ایک دہائی قبل خبردار کیا تھا کہ قومی اور عالمی سطح پر نگرانی ضروری ہے تاکہ کوئی بڑی غلطی نہ ہو۔ اب انہی کی اے آئی پلیٹ فارم گروک کو سوشل میڈیا پلیٹ فارم ایکس پر خواتین کی جعلی اور نامناسب تصاویر بنانے کے لیے استعمال کیے جانے پر شدید تنقید کا سامنا ہے۔
اس معاملے کے بعد برطانیہ سمیت مختلف ممالک کی جانب سے سخت ضابطہ کاری کی بات کی جا رہی ہے، جس پر مسک نے آزادی اظہار سے متعلق اپنے پہلے مؤقف سے کچھ حد تک پسپائی اختیار کرتے ہوئے بعض خطوں میں پابندیوں کو قبول کیا ہے۔ تاہم خدشہ ظاہر کیا جا رہا ہے کہ یہ اقدامات تاخیر سے کیے جا رہے ہیں اور اے آئی کی تیز رفتار ترقی کے مقابلے میں ناکافی ہیں۔
اس واقعے نے یہ حقیقت واضح کر دی ہے کہ جب طاقتور ٹیکنالوجی بلا روک ٹوک سب کے لیے دستیاب ہو، تو اس کے غلط استعمال کے امکانات بڑھ جاتے ہیں۔ جیسے دیگر صنعتوں میں قوانین اور ضابطے موجود ہیں، ویسے ہی اے آئی اور سوشل میڈیا کو بھی ان سے مستثنیٰ نہیں ہونا چاہیے۔ مزید یہ کہ ٹیکنالوجی کی رفتار عام صارف کی سمجھ سے کہیں زیادہ تیز ہو چکی ہے، جس کے باعث حقیقت اور جعل سازی میں فرق کرنا مشکل ہوتا جا رہا ہے۔
اے آئی اب ناگزیر حقیقت بن چکی ہے اور انٹرنیٹ کی طرح، بلکہ شاید اس سے بھی زیادہ، انسانی زندگی کو بدل رہی ہے۔ روزگار، صحت، تعلیم، ٹرانسپورٹ اور دیگر شعبوں میں اس کے اثرات نمایاں ہو رہے ہیں۔ ماہرین کے مطابق، اس مرحلے پر محتاط اور ذمہ دارانہ رویہ اپنانا ضروری ہے، تاکہ ماضی میں انٹرنیٹ اور سوشل میڈیا سے جڑے مسائل کو دہرانے سے بچا جا سکے، خاص طور پر بچوں اور نوجوانوں کی ذہنی صحت کے حوالے سے۔
گلف نیوز کا کہنا ہے کہ وہ بھی اے آئی کے استعمال کے حوالے سے سیکھنے کے عمل سے گزر رہا ہے۔ ادارہ اسے کام کو تیز اور آسان بنانے کے لیے استعمال کر رہا ہے، تاہم ادارتی پالیسی کے مطابق صحافت میں انسانی فیصلہ سازی، ذمہ داری اور تخلیقی صلاحیت کو بنیادی حیثیت حاصل رہے گی، اور اے آئی محض ایک معاون ٹول ہوگی۔
اگرچہ اے آئی کے مثبت پہلوؤں سے انکار ممکن نہیں، لیکن بدترین ممکنہ نتائج کے خدشات بھی موجود ہیں۔ اوپن اے آئی کے سربراہ سیم آلٹمین تک یہ کہہ چکے ہیں کہ یہ ٹیکنالوجی مستقبل میں انسانیت کے لیے خطرہ بن سکتی ہے۔ اسی پس منظر میں ماہرین اس بات پر زور دے رہے ہیں کہ ترقی کے ساتھ ساتھ مضبوط ضابطہ کاری اور اخلاقی حدود کا تعین ناگزیر ہے۔







