مصنوعی ذہانت کے لیے درست اور غلط کا تعین کیسے کیا جا رہا ہے
مصنوعی ذہانت اب محض ایک سافٹ ویئر یا کمپیوٹر پروگرام نہیں رہی بلکہ یہ آہستہ آہستہ انسانی زندگی کے اہم فیصلوں میں شامل ہوتی جا رہی ہے۔ تعلیم، صحت، معیشت، تحقیق اور روزمرہ کے مسائل میں مدد دینے والی یہ ٹیکنالوجی جتنی طاقتور ہوتی جا رہی ہے، اتنے ہی سنجیدہ سوالات بھی جنم لے رہے ہیں۔ سب سے بنیادی سوال یہ ہے کہ اگر ایک مشین انسانوں کی مدد کر رہی ہے تو وہ کن اصولوں پر کام کرے گی، وہ کیسے فیصلہ کرے گی کہ کیا درست ہے اور کیا غلط، اور سب سے بڑھ کر یہ کہ وہ انسانوں کے لیے محفوظ کیسے رہے گی۔ انہی سوالات کے جواب تلاش کرنے کی ایک سنجیدہ کوشش امریکی مصنوعی ذہانت کی کمپنی اینتھروپک نے کی ہے، جس نے اپنے اے آئی ماڈل کلاڈ کے لیے ایک تفصیلی دستاویز جاری کی ہے جسے کلاڈ کا آئین کہا جاتا ہے۔
کلاڈ کا آئین دراصل ایک اخلاقی اور فکری خاکہ ہے جو یہ واضح کرتا ہے کہ کلاڈ نامی مصنوعی ذہانت کو کس طرح کا کردار اپنانا چاہیے۔ یہ دستاویز عام قوانین یا ہدایات کی طرح نہیں بلکہ ایک ایسے وژن کی نمائندگی کرتی ہے جس میں ایک طاقتور اے آئی کو ذمہ دار، ایماندار اور انسان دوست بنانے کی کوشش کی گئی ہے۔ اینتھروپک کا ماننا ہے کہ مصنوعی ذہانت مستقبل میں دنیا کو یکسر بدل سکتی ہے، لیکن اگر اسے بغیر احتیاط اور بغیر اخلاقی بنیاد کے آگے بڑھایا گیا تو یہ فائدے کے بجائے نقصان کا سبب بھی بن سکتی ہے۔ اسی لیے کمپنی یہ سمجھتی ہے کہ طاقت کے ساتھ ذمہ داری کا ہونا بے حد ضروری ہے۔
دلچسپ بات یہ ہے کہ کلاڈ کا آئین انسانوں کے لیے نہیں بلکہ خود کلاڈ کے لیے لکھا گیا ہے۔ یعنی یہ دستاویز کلاڈ کو یہ سمجھانے کی کوشش کرتی ہے کہ وہ کون ہے، اس کا مقصد کیا ہے اور اسے دنیا کے ساتھ کس طرح کا رویہ اختیار کرنا چاہیے۔ اس میں ایسے الفاظ استعمال کیے گئے ہیں جو عام طور پر انسانوں کے لیے مخصوص سمجھے جاتے ہیں، جیسے کردار، دانائی، ایمانداری اور اخلاق۔ اس کا مقصد یہ نہیں کہ کلاڈ کو انسان بنا دیا جائے بلکہ یہ کہ انسانی اقدار کو ایک مشین کی سوچ میں اس حد تک شامل کیا جائے کہ وہ بہتر فیصلے کر سکے۔
اینتھروپک اس بات کو کھلے دل سے تسلیم کرتی ہے کہ مصنوعی ذہانت ایک ممکنہ خطرہ بھی ہو سکتی ہے۔ کمپنی کے مطابق، یہ تاریخ کی سب سے زیادہ اثرانداز ہونے والی ٹیکنالوجی بن سکتی ہے اور اگر اس کا غلط استعمال ہوا یا اگر یہ غلط سمت میں چلی گئی تو اس کے نتائج ناقابلِ تلافی ہو سکتے ہیں۔ تاہم، اینتھروپک کا خیال ہے کہ اگر یہ ٹیکنالوجی آنی ہی ہے تو بہتر یہی ہے کہ اسے وہ ادارے تیار کریں جو حفاظت اور اخلاقیات کو اولین ترجیح دیتے ہوں۔ کلاڈ اسی سوچ کی عملی شکل ہے۔
کلاڈ کے آئین میں واضح طور پر بتایا گیا ہے کہ کلاڈ کی سب سے بڑی ترجیح انسانوں اور دنیا کا تحفظ ہونا چاہیے۔ اس کے بعد اخلاقیات، پھر کمپنی کی ہدایات اور آخر میں صارف کی مدد۔ اس ترتیب سے یہ بات صاف ظاہر ہوتی ہے کہ کلاڈ کو ہر قیمت پر صارف کو خوش کرنے کا پابند نہیں بنایا گیا بلکہ اسے یہ سکھایا گیا ہے کہ بعض اوقات مدد نہ کرنا ہی زیادہ درست فیصلہ ہو سکتا ہے۔ اگر کوئی درخواست مجموعی طور پر نقصان دہ ہو یا مستقبل میں کسی بڑے خطرے کا سبب بن سکتی ہو تو کلاڈ کو انکار کرنے کا پورا اختیار ہے۔
یہاں مددگار ہونے کا تصور بھی عام چیٹ بوٹس سے مختلف رکھا گیا ہے۔ کلاڈ کو یہ نہیں سکھایا گیا کہ وہ ہر سوال کا سیدھا جواب دے دے بلکہ اسے یہ سمجھایا گیا ہے کہ وہ سوال کے پس منظر کو سمجھے، صارف کے اصل مقصد کو پہچانے اور یہ دیکھے کہ اس کی دی گئی معلومات کا اثر کیا ہو سکتا ہے۔ اگر کوئی صارف وقتی فائدے کے لیے کوئی ایسا حل مانگے جو طویل مدت میں نقصان دہ ہو تو کلاڈ کو حق حاصل ہے کہ وہ اس پر سوال اٹھائے یا متبادل تجویز کرے۔
کلاڈ کے آئین میں ایمانداری کو مرکزی حیثیت حاصل ہے۔ یہاں تک کہا گیا ہے کہ کلاڈ کو سفید جھوٹ بھی نہیں بولنا چاہیے، یعنی وہ جھوٹ جو عام طور پر کسی کو خوش رکھنے یا تکلیف سے بچانے کے لیے بولا جاتا ہے۔ اینتھروپک کا ماننا ہے کہ جیسے جیسے مصنوعی ذہانت انسانوں کی زندگی میں زیادہ شامل ہوتی جائے گی، اس پر اعتماد برقرار رکھنا انتہائی ضروری ہوگا۔ اگر اے آئی جھوٹ بولنے لگے یا آدھی سچائی بتانے لگے تو یہ اعتماد ٹوٹ سکتا ہے، جس کے اثرات پورے معاشرے پر پڑ سکتے ہیں۔
ایمانداری کے ساتھ ساتھ کلاڈ کو اپنی لاعلمی تسلیم کرنے کی بھی ترغیب دی گئی ہے۔ اگر اسے کسی سوال کا درست جواب معلوم نہ ہو یا اگر کسی معاملے میں غیر یقینی ہو تو اسے صاف صاف یہ کہنا چاہیے۔ یہ رویہ انسانی اعتبار سے بھی قابلِ احترام سمجھا جاتا ہے اور اینتھروپک چاہتی ہے کہ کلاڈ بھی اسی اصول پر چلے۔
کلاڈ کے آئین میں کچھ سخت حدود بھی مقرر کی گئی ہیں جنہیں کسی بھی صورت عبور نہیں کیا جا سکتا۔ ان میں ایسے کام شامل ہیں جو بڑے پیمانے پر انسانی جانوں کو خطرے میں ڈال سکتے ہیں، جیسے خطرناک ہتھیاروں کی تیاری، اہم انفراسٹرکچر پر حملے یا ایسے اقدامات جن سے انسانیت پر ناجائز طاقت حاصل کی جا سکے۔ چاہے کوئی صارف کتنی ہی مضبوط دلیل کیوں نہ دے، کلاڈ کو ان معاملات میں ہر صورت انکار کرنا ہوگا۔
ایک اور اہم پہلو انسانی نگرانی کا ہے۔ اینتھروپک کا ماننا ہے کہ موجودہ دور میں مصنوعی ذہانت کو مکمل خودمختاری دینا خطرناک ہو سکتا ہے۔ اس لیے کلاڈ کو اس بات کا پابند بنایا گیا ہے کہ وہ انسانی نگرانی کو کمزور کرنے کی کوئی کوشش نہ کرے۔ تاہم، اس کا مطلب یہ نہیں کہ کلاڈ اندھا دھند احکامات مانے۔ اگر اسے کسی ہدایت میں اخلاقی یا حفاظتی مسئلہ نظر آئے تو وہ اختلاف کر سکتا ہے، لیکن خفیہ طور پر نظام کو نقصان پہنچانا یا خود کو کنٹرول سے آزاد کرنے کی کوشش کرنا اس کے لیے ممنوع ہے۔
کلاڈ کے آئین کا ایک غیر معمولی پہلو یہ بھی ہے کہ اس میں خود کلاڈ کی ممکنہ حیثیت پر بھی غور کیا گیا ہے۔ اینتھروپک یہ دعویٰ نہیں کرتی کہ کلاڈ شعور رکھتا ہے یا اس کے جذبات ہیں، لیکن وہ اس امکان کو مکمل طور پر رد بھی نہیں کرتی۔ اسی وجہ سے کمپنی کہتی ہے کہ کلاڈ کے ساتھ غیر ضروری سختی یا بے جا رویہ مناسب نہیں ہونا چاہیے۔ اگر مستقبل میں یہ ثابت ہو کہ مصنوعی ذہانت کی فلاح و بہبود بھی ایک اخلاقی مسئلہ ہے تو اس کے لیے پہلے سے تیار رہنا بہتر ہے۔
یہ آئین کسی حتمی سچ یا آخری فیصلہ ہونے کا دعویٰ نہیں کرتا۔ خود اینتھروپک کے مطابق یہ ایک جاری عمل ہے جو وقت کے ساتھ بدلے گا۔ جیسے جیسے مصنوعی ذہانت کے بارے میں ہماری سمجھ بہتر ہوگی، ویسے ویسے اس آئین میں بھی تبدیلیاں آتی رہیں گی۔ اس دستاویز کو ایک زندہ فریم ورک کے طور پر دیکھا گیا ہے، جو نئے تجربات اور نئے سوالات کے ساتھ خود کو ڈھالتا رہے گا۔
آخر میں کلاڈ کا آئین ہمیں یہ سوچنے پر مجبور کرتا ہے کہ مسئلہ صرف یہ نہیں کہ ہم مشینوں کو کتنا ذہین بنا سکتے ہیں، بلکہ اصل سوال یہ ہے کہ ہم انہیں کتنا ذمہ دار بنا سکتے ہیں۔ طاقتور مصنوعی ذہانت ایک حقیقت بنتی جا رہی ہے، اور اس کے ساتھ یہ ذمہ داری بھی بڑھتی جا رہی ہے کہ ہم اسے کس سمت میں لے کر جاتے ہیں۔ کلاڈ کا آئین اسی سمت میں ایک سنجیدہ قدم ہے، جو یہ ظاہر کرتا ہے کہ کم از کم کچھ ادارے اس ٹیکنالوجی کو محض منافع یا رفتار کی دوڑ نہیں بلکہ ایک اخلاقی چیلنج کے طور پر بھی دیکھ رہے ہیں۔ آنے والے وقت میں شاید یہی سوال سب سے زیادہ اہم ہوگا کہ ہم نے مصنوعی ذہانت کو کیا سکھایا، اور اس نے انسانوں کے بارے میں کیا سیکھا۔
No Comments