گوگل نے ڈاکٹر کے لیے لی گئی بچے کی طبی تصاویر کو جنسی زیادتی کے مواد کے طور پر فلیگ لگایا

باپ کو صدمہ پہنچا، اس کے فون پر اس کے بیٹے کے ساتھ ویڈیو بھی فلیگ کی گئی جسے سان فرانسسکو کے پولیس ڈیپارٹمنٹ نے اس سے تفتیش شروع کرنے کے لیے استعمال کیا۔

دی گارڈین نے نیویارک ٹائمز کے حوالے سے رپورٹ کیا کہ گوگل نے ایک شخص کو اس کا اکاؤنٹ واپس دینے سے انکار کر دیا ہے جب اس نے اس کے بیٹے کی طبی تصاویر کو “بچوں کے ساتھ جنسی زیادتی کے مواد” (CSAM) کے طور پر جھنڈا لگایا تھا۔

ماہرین نے کہا ہے کہ ٹیکنالوجی کے لیے اس طرح کا برتاؤ ناگزیر ہے۔ وہ بچوں کے جنسی استحصال کے میڈیا کے خودکار پتہ لگانے کی حدود کے بارے میں خبردار کرتے رہے ہیں۔

چونکہ گوگل جیسے جنات کے پاس نجی ڈیٹا کی بہت زیادہ مقدار ہے، اس لیے ان پر دباؤ ہے کہ وہ اس کے نتیجے میں پیدا ہونے والے مسائل سے نمٹنے کے لیے ٹیکنالوجی کا استعمال کریں۔

NYT نے اس شخص کی شناخت مارک کے طور پر کی ہے۔ اس نے اپنے بیٹے کی کمر کی تصویریں ڈاکٹر کو دکھانے کے لیے لی تھیں۔ اس تصویر کو ڈاکٹر نے بچے کی تشخیص اور اسے اینٹی بائیوٹک تجویز کرنے کے لیے استعمال کیا۔

چونکہ تصاویر خود بخود کلاؤڈ پر اپ لوڈ ہوگئیں، گوگل نے انہیں CSAM کے بطور نشان زد کیا۔

دو دن بعد، مارک نے اپنی فون سروس فائی سمیت اپنے تمام گوگل اکاؤنٹس تک رسائی کھو دی۔

اسے بتایا گیا کہ اس کا مواد “کمپنی کی پالیسیوں کی شدید خلاف ورزی ہے اور غیر قانونی ہو سکتا ہے”۔

مارک کے صدمے کے لیے، اس کے فون پر اس کے بیٹے کے ساتھ ایک اور ویڈیو کو جھنڈا لگایا گیا تھا جسے پھر سان فرانسسکو کے پولیس ڈیپارٹمنٹ نے اس کے بارے میں تحقیقات شروع کرنے کے لیے استعمال کیا تھا۔

جبکہ مارک کو قانونی طور پر کلیئر کر دیا گیا تھا، گوگل نے اپنا اکاؤنٹ واپس لینے اور دوبارہ بحال کرنے سے انکار کر دیا ہے۔

گوگل کے ترجمان نے کہا کہ ان کی ٹکنالوجی نے صرف ان چیزوں کا پتہ لگایا جسے امریکی قانون CSAM کے طور پر بیان کرتا ہے۔

دی گارڈین کی رپورٹ کے مطابق، ACLU کے ایک سینئر اسٹاف ٹیکنولوجسٹ، ڈینیئل کاہن گلمور نے کہا کہ یہ صرف ایک مثال ہے کہ اس طرح کے نظام کس طرح لوگوں کو نقصان پہنچا سکتے ہیں۔

الگورتھم کی متعدد حدود ہیں۔ ان میں سے ایک جنسی زیادتی اور طبی مقاصد کے لیے لی گئی تصاویر میں فرق کرنے سے قاصر ہے۔

“یہ نظام لوگوں کے لیے حقیقی مسائل کا باعث بن سکتے ہیں،” انہوں نے کہا۔ حوالہ