AI Hallucination

اے آئی ہیلوسینیشن (غلط بیانی) کیا ہے؟ — آسان اردو میں

اے آئی ہیلوسینیشن (AI Hallucination) سے مراد وہ صورتحال ہے جب چیٹ جی پی ٹی (ChatGPT) یا کوئی بھی اور اے آئی ماڈل پورے اعتماد کے ساتھ ایک ایسی بات کہتا یا لکھتا ہے جو جھوٹ، غلط، یا بے بنیاد ہو، لیکن اسے پڑھنے میں بالکل سچ معلوم ہو۔ اسے عام زبان میں ہم ‘اے آئی کی غلط بیانی’ بھی کہہ سکتے ہیں۔

آسان مثال

فرض کریں آپ کا ایک ایسا دوست ہے جو محفل میں کبھی اپنی لاعلمی کا اعتراف نہیں کرنا چاہتا۔ اگر آپ اس سے پوچھیں کہ “فلاں سنہ میں پاکستان کا وزیر اعظم کون تھا؟”، تو اگر اسے پتا نہ بھی ہو تب بھی وہ بنا کر ایک فرضی نام اور پوری کہانی اتنے اعتماد سے بتائے گا کہ آپ سچ مان لیں گے۔ اے آئی کے ماڈلز بھی بعض اوقات بالکل ایسا ہی کرتے ہیں کیونکہ انہیں تربیت دی گئی ہے کہ وہ جواب ضرور دیں، چاہے وہ جواب خود سے تخلیق کرنا پڑے۔

یہ کیسے کام کرتا ہے؟

آپ کو معلوم ہے کہ اے آئی ماڈلز دراصل اعداد و شمار اور شماریات (Statistics) پر چلتے ہیں۔ ان کا کام محض یہ اندازہ لگانا ہے کہ اگلے مناسب ترین الفاظ کیا ہونے چاہئیں۔ جب انہیں کسی موضوع کے بارے میں معلومات نہیں ملتیں، تو ان کا الگورتھم خاموش ہونے کے بجائے، اپنے ڈیٹا میں سے ملتے جلتے الفاظ چن کر جواب مکمل کر دیتا ہے۔ وہ آپ کو دھوکہ نہیں دینا چاہتا، بس اس کا پروگرام بتائے گئے اصولوں کے مطابق رد عمل دے رہا ہوتا ہے۔

روزمرہ زندگی میں کہاں ملتا ہے؟

  • فرضی حوالے ڈب کرنا (Fake References): اگر آپ چیٹ جی پی ٹی سے کہیں کہ مجھے کسی خاص موضوع پر 5 ریسرچ پیپرز کے نام بتاؤ، تو بسا اوقات وہ ایسے پیپرز کے نام، رائٹرز اور لنکس خود سے بنا دے گا جن کا دنیا میں کوئی وجود ہی نہیں ہوتا۔
  • غلط ریاضی یا فیکٹس: کسی پرانی تاریخ یا حساب کتاب میں چھوٹے موٹے، مگر پراعتماد جھوٹ بول دینا۔
  • کسی ایسے شخص کی بائیوگرافی جو اتنا مشہور نہیں: اس بارے میں غلط معلومات بھر دینا۔

متعلقہ اصطلاحات

اکثر پوچھے گئے سوالات

کیا اے آئی سے ہیلوسینیشن کا خاتمہ ممکن ہے؟ ٹیکنالوجی ہر روز بہتر ہو رہی ہے اور نئی اپڈیٹس کے ساتھ غلط بیانی بہت کم ہو گئی ہے۔ اس کے علاوہ ‘سرچ (Web Search)’ کا آپشن اس مسئلے پر کافی حد تک قابو پاتا ہے، لیکن مکمل طور پر 100٪ ختم کرنا فی الحال ناممکن ہے۔

ہم اس غلط بیانی سے کیسے بچ سکتے ہیں؟ اے آئی پر آنکھیں بند کر کے اعتماد نہ کریں۔ اس سے پرامٹ میں واضح کہیں کہ “اگر تمہیں درست جواب معلوم نہیں ہے، تو صاف بتا دو، جھوٹ مت بنانا۔” اور اہم کام (جیسے میڈیکل اور قانونی معلومات) میں ڈبل چیک لازمی کریں۔

اب آگے کیا سیکھیں؟ یہ سمجھنا بھی ضروری ہے کہ اے آئی ابھی انسان نہیں بنا۔ اے جی آئی (AGI) کے بارے میں پڑھیں کہ مستقبل کیسا ہو سکتا ہے ←