Site icon Urdu Ai

سیم آلٹمین کا انکشاف: ڈیپ فیک ویڈیوز دنیا کو خطرے میں ڈال سکتی ہیں

سیم آلٹمین کا انکشاف: ڈیپ فیک ویڈیوز دنیا کو خطرے میں ڈال سکتی ہیں

سیم آلٹمین کا انکشاف: ڈیپ فیک ویڈیوز دنیا کو خطرے میں ڈال سکتی ہیں

سیم آلٹمین کا انکشاف: ڈیپ فیک ویڈیوز دنیا کو خطرے میں ڈال سکتی ہیں

سورا 2 نامی ویڈیو ایپ نے جہاں شہرت حاصل کی، وہیں جعلی اور نفرت انگیز ویڈیوز کے پھیلاؤ نے دنیا بھر میں خطرے کی گھنٹی بجا دی۔ سام آلٹمین نے خبردار کیا ہے کہ ڈیپ فیک ٹیکنالوجی معاشرے اور سچائی دونوں کو نقصان پہنچا سکتی ہے۔ سورا 2 ایک نئی ویڈیو بنانے والی ایپ ہے۔ جس نے ایپل کے ایپ اسٹور پر صرف چند دنوں میں مقبولیت کے ریکارڈ توڑ دیے۔ مگر جیسے ہی اس پر بنی کچھ ویڈیوز منظرِ عام پر آئیں، ویسے ہی شدید تنازعات نے جنم لیا۔ ان ویڈیوز میں نہ صرف ہولوکاسٹ جیسے حساس موضوعات کا مذاق اڑایا گیا، بلکہ نسل پرستانہ، خواتین دشمن اور مذہبی نفرت پر مبنی مواد بھی تیزی سے وائرل ہوا۔ ڈیپ فیک کے ذریعے تیار کی جانے والی ایک ویڈیو میں کارٹون کردار سپونج باب کو دکھایا گیا کہ وہ “چھے ملین کریبی پیٹیز” پر گفتگو کر رہا ہے جو دراصل ہولوکاسٹ کے متاثرین کی توہین تھی۔ اس ویڈیو کو صرف چھ دن میں اسی ہزار سے زائد لوگوں نے پسند کیا۔

اسی طرح دیگر ویڈیوز میں ایڈولف ہٹلر کو گیمنگ سٹریمر کے روپ میں دکھایا گیا، جو سوشل میڈیا پر لاکھوں ناظرین تک پہنچیں۔ اوپن اے آئی کے سربراہ سام آلٹمین نے اس سارے معاملے پر سخت تشویش ظاہر کی۔ ایک حالیہ پوڈکاسٹ گفتگو میں انہوں نے کہا کہ، “مجھے لگتا ہے کہ ڈیپ فیک ٹیکنالوجی کی وجہ سے کچھ واقعی خوفناک لمحات آنے والے ہیں۔”

اداکار برائن کرینسٹن ان لوگوں میں شامل ہیں جن کی آواز اور چہرہ سورا 2 ایپ نے ان کی اجازت کے بغیر نقل کیا۔ ان کا کہنا تھا، “مجھے صرف اپنی نہیں بلکہ تمام فنکاروں کی فکر ہے، جن کی شناخت اور کام کو غلط استعمال کیا جا رہا ہے۔” اسی شکایت پر فنکاروں کی یونین، اوپن اے آئی اور بڑی ٹیلنٹ ایجنسیوں کے درمیان بات چیت ہوئی، اور ادارے نے اس کے بعد نئی پالیسی کا اعلان کیا۔ اب بغیر اجازت کسی بھی اداکار یا معروف شخصیت کی شبیہ یا آواز استعمال نہیں کی جا سکتی۔

مارٹن لوتھر کنگ جونیئر کے خاندان نے بھی سورا 2 پر اعتراض کیا۔ ان کے ورثاء نے کہا کہ ان کے والد کو توہین آمیز انداز میں دکھایا گیا، جس کے بعد اوپن اے آئی نے اُن پر مبنی تمام ویڈیوز کو ہٹا دیا۔ ڈیپ فیک ٹیکنالوجی اب صرف تفریح نہیں بلکہ ایک خطرہ بنتی جا رہی ہے۔ ایک رپورٹ کے مطابق، سوشل میڈیا پر یہ ویڈیوز اس قدر حقیقت کے قریب لگتی ہیں کہ عام صارفین اُنہیں اصلی سمجھ بیٹھتے ہیں۔ اسی وجہ سے دُنیا بھر کی حکومتیں مصنوعی ذہانت اور ڈیپ فیک مواد کے خلاف ضابطے سخت کرنے کی تیاری کر رہی ہیں۔ ماہرین خبردار کر رہے ہیں کہ اگر فوری قانون سازی نہ کی گئی، تو سچ اور جھوٹ کے درمیان فرق مٹ جائے گا۔

سام آلٹمین نے ایک بار پھر کہا کہ ویڈیو مواد تحریر کی نسبت زیادہ جذباتی اثر رکھتا ہے۔ ان کے بقول، “دنیا کو بہت جلد یہ سمجھنے کی ضرورت ہے کہ ویڈیو کی دنیا کس تیزی سے بدل رہی ہے۔” اوپن اے آئی کا مؤقف ہے کہ عوامی سطح پر اس ٹیکنالوجی کی موجودگی ضروری ہے تاکہ معاشرہ اس کے ساتھ ارتقاء کر سکے، مگر سوال یہ ہے کہ کیا ہم اتنی تیزی سے بدلتی ہوئی حقیقت کو سنبھال سکتے ہیں؟

ڈیپ فیک اب صرف مشہور شخصیات تک محدود نہیں رہا، بلکہ عام افراد کی شناخت، آواز اور چہرہ بھی نشانے پر آ چکا ہے۔ اگر ہم نے ابھی قدم نہ اٹھایا، تو کل شاید ہمیں اندازہ بھی نہ ہو کہ جو کچھ ہم دیکھ رہے ہیں، وہ اصلی ہے یا جعلی۔

Exit mobile version