Site icon Urdu Ai

کیا مصنوعی ذہانت بچوں کے حق میں ہے؟ یونیسف کی رپورٹ کا جائزہ

کیا مصنوعی ذہانت بچوں کے حق میں ہے؟ یونیسف کی رپورٹ کا جائزہ

کیا مصنوعی ذہانت بچوں کے حق میں ہے؟ یونیسف کی رپورٹ کا جائزہ

یونیسف کی رپورٹ کی روشنی میں: مصنوعی ذہانت اور بچے

حصہ اول:
یہ مضمون مصنوعی ذہانت اور بچوں سے متعلق یونیسف کی عالمی رپورٹ کے تجزیے پر مبنی سیریز کا  حصہ اول ہے۔

کیا مصنوعی ذہانت بچوں کے حق میں ہے؟ یونیسف کی رپورٹ کا جائزہ

یہ تحریر یونیسف کی حال ہی میں جاری کردہ رپورٹ کی روشنی میں لکھی گئی ہے جو مصنوعی ذہانت اور بچوں سے متعلق رہنمائی فراہم کرتی ہے، اور اس کا مقصد یہ سمجھنا ہے کہ ایک خاموش مگر فیصلہ کن تبدیلی کس طرح بچوں کی زندگیوں میں داخل ہو چکی ہے۔ مصنوعی ذہانت اب کسی مستقبل کے وعدے یا تصور تک محدود نہیں رہی بلکہ یہ حال کی حقیقت بن چکی ہے، خاص طور پر ان بچوں کے لیے جو تعلیم، تفریح، معلومات اور سماجی روابط کے لیے ڈیجیٹل ذرائع پر انحصار کرتے ہیں۔ یہ تبدیلی اس قدر خاموش ہے کہ اکثر والدین، اساتذہ اور پالیسی ساز بھی اس کے اثرات کو پوری طرح محسوس نہیں کر پاتے، حالانکہ بچے پہلے ہی اس کے مرکز میں آ چکے ہیں۔

مصنوعی ذہانت دراصل ایسے خودکار نظام ہیں جو ڈیٹا کی بنیاد پر فیصلے کرتے ہیں، اور آج کے بچے ان فیصلوں کے براہِ راست اثر میں ہیں۔ جب کوئی بچہ موبائل فون پر ویڈیو دیکھتا ہے، آن لائن سبق سیکھتا ہے، کسی کھیل میں مصروف ہوتا ہے یا کسی سوال کا جواب تلاش کرتا ہے تو پس منظر میں الگورتھم اس کی سرگرمیوں، دلچسپیوں اور ردِعمل کا تجزیہ کر رہے ہوتے ہیں۔ یہی الگورتھم یہ طے کرتے ہیں کہ بچے کے سامنے اگلا مواد کیا ہو گا، کون سی ویڈیو اس کی توجہ کھینچے گی، کون سی خبر اسے دکھائی جائے گی اور کون سا اشتہار اس پر اثر ڈال سکتا ہے۔ یہ عمل بظاہر سہولت اور ذاتی نوعیت کا تجربہ فراہم کرتا ہے، مگر اس کے اثرات بچوں کی سوچ، جذبات اور رویوں پر گہرے اثر برپا ہوتے ہیں۔

یہ تبدیلی کن بچوں کو متاثر کر رہی ہے، اس کا دائرہ غیر معمولی حد تک وسیع ہے۔ ترقی یافتہ ممالک ہوں یا ترقی پذیر معاشرے، مصنوعی ذہانت پر مبنی نظام ہر جگہ بچوں کی زندگی کا حصہ بن چکے ہیں۔ گھروں کے اندر موبائل فون اور ٹیبلٹس کے ذریعے، اسکولوں میں تعلیمی ایپس کے ذریعے اور آن لائن دنیا میں مختلف پلیٹ فارمز کے ذریعے بچے ان نظاموں سے مسلسل تعامل کر رہے ہیں۔ اس پورے عمل میں بچے بظاہر فعال نظر آتے ہیں، مگر درحقیقت فیصلے کہیں اور ہو رہے ہوتے ہیں، جن پر بچوں کا کوئی اختیار نہیں ہوتا۔

یونیسف نے اس صورتحال پر اس وقت توجہ دی ہے جب مصنوعی ذہانت کا استعمال غیر معمولی رفتار سے بڑھ رہا ہے۔ گزشتہ چند برسوں میں ڈیجیٹل ٹیکنالوجی نے بچوں کی زندگی کو پہلے سے کہیں زیادہ بدل دیا ہے، مگر اس رفتار کے مقابلے میں حفاظتی اصول، اخلاقی رہنما خطوط اور قانونی ضابطے پیچھے رہ گئے ہیں۔ یہی خلا یونیسف کی رپورٹ کو غیر معمولی اہمیت دیتا ہے، کیونکہ یہ پہلی بار عالمی سطح پر اس بات پر زور دیتی ہے کہ بچوں کو محض ٹیکنالوجی کے صارف کے طور پر نہیں بلکہ حقوق رکھنے والے انسان کے طور پر دیکھا جائے۔

یہ صورتحال کسی ایک ملک یا خطے تک محدود نہیں۔ دنیا بھر میں گھروں، اسکولوں، آن لائن پلیٹ فارمز اور بعض صورتوں میں ریاستی نظاموں کے ذریعے بھی مصنوعی ذہانت بچوں سے متعلق فیصلوں میں شامل ہو رہی ہے۔ تعلیمی نظام بچوں کی کارکردگی جانچنے کے لیے خودکار نظام استعمال کر رہے ہیں، فلاحی شعبے میں بچوں سے متعلق ڈیٹا الگورتھمز کے ذریعے تجزیہ کیا جا رہا ہے، اور بعض ممالک میں ایسے نظام بھی استعمال ہو رہے ہیں جو بچوں اور خاندانوں کے بارے میں پیش گوئیاں کرتے ہیں۔ یہ فیصلے سرحدوں کے پابند نہیں، مگر ان کے اثرات بچوں کی روزمرہ زندگی پر براہِ راست مرتب ہوتے ہیں۔

اسی مقام پر بحث بچوں کے حقوق کی طرف بڑھتی ہے۔ یونیسف کی رپورٹ واضح کرتی ہے کہ اگر مصنوعی ذہانت بچوں کی زندگی کو متاثر کر رہی ہے تو اسے بچوں کے بہترین مفاد کے مطابق ہونا چاہیے۔ بچوں کا حق ہے کہ وہ محفوظ رہیں، ان کی نجی زندگی کا احترام کیا جائے، انہیں نقصان دہ مواد اور استحصال سے بچایا جائے اور ان کی ذہنی و جذباتی نشوونما کو متاثر نہ کیا جائے۔ مگر حقیقت یہ ہے کہ بچوں کا ڈیٹا بڑے پیمانے پر جمع کیا جا رہا ہے، ان کی آن لائن سرگرمیوں کو مسلسل مانیٹر کیا جا رہا ہے اور اکثر بچوں کو یہ علم ہی نہیں ہوتا کہ ان کی معلومات کہاں اور کیسے استعمال ہو رہی ہیں۔

بچوں کے ڈیٹا کا مسئلہ خاص طور پر تشویشناک ہے، کیونکہ بچے ڈیٹا کے مضمرات کو سمجھنے کی صلاحیت نہیں رکھتے۔ ایک بار جمع کیا گیا ڈیٹا برسوں تک ان کے ساتھ جڑا رہ سکتا ہے، جس کی بنیاد پر ان کی عادات، کمزوریوں اور رویوں کی پروفائلنگ کی جاتی ہے۔ یونیسف اس بات پر زور دیتا ہے کہ بچوں کے ڈیٹا کا تحفظ بچوں یا والدین کی ذمہ داری نہیں بلکہ ریاستوں، ٹیکنالوجی کمپنیوں اور اداروں کی ذمہ داری ہے، کیونکہ طاقت اور معلومات کا توازن یکطرفہ ہوتا ہے۔

اس کے ساتھ ساتھ شفافیت کا مسئلہ بھی سامنے آتا ہے۔ مصنوعی ذہانت پر مبنی نظام اکثر اتنے پیچیدہ ہوتے ہیں کہ یہ سمجھنا مشکل ہو جاتا ہے کہ کسی خاص فیصلے کے پیچھے کیا منطق کارفرما ہے۔ بچے اور والدین یہ نہیں جان پاتے کہ کسی خاص ویڈیو، خبر یا تعلیمی تجویز کو کیوں ترجیح دی گئی۔ یہ عدم شفافیت بچوں کے بنیادی حقوق، یعنی معلومات حاصل کرنے، سوال اٹھانے اور فیصلوں کو چیلنج کرنے کے حق، کو کمزور کر دیتی ہے۔

 یونیسف کی رپورٹ اس بحث کو مزید آگے بڑھاتے ہوئے تحفظ، ضابطہ اور ذمہ داری کے سوالات کو مرکز میں لاتی ہے۔ رپورٹ کے مطابق بچوں کے لیے مصنوعی ذہانت کو محفوظ بنانے کے لیے محض اچھی نیت کافی نہیں بلکہ واضح قوانین، مؤثر نگرانی اور جواب دہی کا نظام ضروری ہے۔ ریاستوں پر یہ ذمہ داری عائد ہوتی ہے کہ وہ ایسے ضابطے بنائیں جو بچوں کو نقصان دہ خودکار نظاموں سے بچا سکیں، چاہے یہ نظام نجی کمپنیوں نے بنائے ہوں یا سرکاری اداروں نے۔

یونیسف خبردار کرتا ہے کہ اگر ریاستیں اپنی ذمہ داری ادا نہیں کرتیں تو بچوں کو ایسے نظاموں کے حوالے کر دیا جائے گا جو منافع، سہولت یا کنٹرول کو بچوں کے مفاد پر ترجیح دیتے ہیں۔ اسی لیے رپورٹ بچوں کے حقوق پر مبنی قانون سازی، آزاد نگرانی کے اداروں اور باقاعدہ جانچ کے نظام کی سفارش کرتی ہے تاکہ مصنوعی ذہانت کے ہر استعمال میں بچوں کے مفاد کو اولین حیثیت حاصل ہو۔

ٹیکنالوجی بنانے والی کمپنیوں کی ذمہ داری بھی اس بحث کا ایک اہم حصہ ہے۔ یونیسف کے مطابق بچوں سے متعلق مصنوعی ذہانت تیار کرنے والی کمپنیوں کو یہ فرض نہیں کرنا چاہیے کہ والدین یا بچے خود خطرات کو سمجھ لیں گے۔ کمپنیوں کو شروع سے ہی ایسے نظام بنانے چاہییں جو محفوظ ہوں، عمر کے مطابق ہوں اور جن میں انسانی نگرانی شامل ہو۔ بچوں کے لیے بنائے گئے نظاموں میں یہ گنجائش ہونی چاہیے کہ نقصان کی صورت میں فوری مداخلت کی جا سکے۔

یہ رپورٹ اس بات پر بھی زور دیتی ہے کہ بچے ایک جیسے نہیں ہوتے، مگر زیادہ تر ڈیجیٹل نظام انہیں ایک ہی پیمانے سے ناپتے ہیں۔ عمر، ذہنی نشوونما، سماجی پس منظر اور جذباتی صلاحیتوں کے فرق کو نظرانداز کر کے ایک ہی قسم کے نظام کا اطلاق کرنا بچوں کے لیے خطرات بڑھا دیتا ہے۔ چھوٹے بچوں اور نوعمروں کی ضروریات مختلف ہوتی ہیں، مگر ٹیکنالوجی اکثر اس فرق کو تسلیم نہیں کرتی۔ اسی لیے یونیسف عمر کے مطابق، ضرورت پر مبنی اور سیاق و سباق کو سمجھنے والے نظاموں کی سفارش کرتا ہے۔

اس تمام تنقید کے باوجود یونیسف کی رپورٹ مصنوعی ذہانت کو مکمل طور پر منفی قرار نہیں دیتی۔ رپورٹ تسلیم کرتی ہے کہ درست استعمال کی صورت میں یہ ٹیکنالوجی بچوں کے لیے سیکھنے کے بہتر مواقع پیدا کر سکتی ہے، معذور بچوں کے لیے رسائی آسان بنا سکتی ہے، دور دراز علاقوں میں تعلیم کے مواقع فراہم کر سکتی ہے اور صحت کے شعبے میں بچوں کی بروقت تشخیص میں مدد دے سکتی ہے۔ مگر رپورٹ واضح کرتی ہے کہ یہ فوائد خود بخود حاصل نہیں ہوں گے بلکہ اس کے لیے شعوری فیصلے اور مضبوط ضابطے درکار ہوں گے۔

یہ پوری بحث بالآخر اس نکتے پر آ کر ٹھہرتی ہے کہ مصنوعی ذہانت کو محض اختراع، سہولت یا منافع کے زاویے سے نہیں دیکھا جا سکتا۔ بچوں کے لیے بننے والے نظاموں کو ایک اخلاقی، سماجی اور قانونی ذمہ داری کے طور پر دیکھنا ہو گا، جہاں تحفظ، فائدہ اور شمولیت کو یکساں اہمیت دی جائے۔ بچوں کی آواز کو نظرانداز کر کے بنائی گئی ٹیکنالوجی بچوں کے لیے محفوظ نہیں ہو سکتی۔

اس رپورٹ کا حصہ اول اس سوال کے ساتھ اختتام پذیر ہوتا ہے کہ کیا ہم واقعی بچوں کے لیے ایسی مصنوعی ذہانت تشکیل دے رہے ہیں جو ان کے حقوق، آزادی اور نشوونما کا احترام کرتی ہو، یا ہم انہیں ایسے خودکار نظاموں کے حوالے کر رہے ہیں جن پر ان کا کوئی اختیار نہیں۔ یونیسف کی رپورٹ اس بات پر زور دیتی ہے کہ اس سوال کا جواب مستقبل پر چھوڑنے کے بجائے ہمیں آج ہی دینا ہو گا، کیونکہ بچے پہلے ہی اس تبدیلی کا حصہ بن چکے ہیں۔

یونیسف کی رپورٹ کا اگلا حصہ ان عملی سوالات پر توجہ دیتا ہے کہ بچوں کے تحفظ کے لیے ریاستیں، ادارے اور ٹیکنالوجی کمپنیاں کیا ذمہ داریاں ادا کر سکتی ہیں اور کن ٹھوس اقدامات کی ضرورت ہے۔ اس سلسلے کی دوسری قسط کل شائع کی جائے گی، جس میں انہی نکات کا تفصیلی جائزہ لیا جائے گا کہ مصنوعی ذہانت کو بچوں کے حق میں کیسے ڈھالا جا سکتا ہے۔

Exit mobile version