به گزارش خبرنگار علمی پایگاه خبری خبرآنی؛ "اپل" در اقدامی عجیب اعلام کرده است که در تلاش برای محافظت از کودکان و برای جلوگیری از دستیابی آنها به تصاویر غیراخلاقی و مستهجن، اسکن دستگاههای مشتریان را برای مشاهده تصاویر دیدهشده توسط کودکان آغاز میکند.
اپل میگوید قبل از بارگذاری یک تصویر در iCloud یک ابزار تشخیصی به نام neuralMatch با استفاده از پایگاه دادهای از تصاویر غیراخلاقی که قبلاً در مرکز ملی کودکان مفقود شده و استثمار شده (NCMEC) آمریکا شناخته شده است، فرایند تطبیق را روی دستگاه هدف انجام میدهد؛ اپل مدعی است که این فناوری، حریم خصوصی کاربران را رعایت خواهد کرد و تصاویر خصوصی دستگاه تلفن همراه کاربر را مشاهده نخواهد کرد بلکه از اثر انگشت دیجیتالی پیوندداده شده به محتوا استفاده میکند که به آن این امکان را میدهد که مطابقت را بررسی کند.
مدیران اپل میگویند که اگر این سیستم و فناوری، تصاویری از سوء استفاده جنسی از کودکان را تشخیص دهند، پرونده به سازمانهای قضایی گزارش شده و حساب کاربری اپل کاربر نیز به طور کامل غیرفعال و مسدود میشود؛ اپل گفته است که این تغییرات ابتدا در بهروزرسانی iOS 15 ، iPadOS 15 ،watchOS 8 و macOS Monterey در اواخر امسال وارد ایالات متحده میشود.
اما این اقدام با واکنش منفی و گسترده کاربران همراه شده است، به عنوان نمونه "پروفسور اندرسون" استاد دانشگاه کمبریج گفته است که این اقدام وحشتناک میتواند منجر به نظارت گسترده بر تلفنها و لپتاپهای کاربران و نقض حریم خصوصی کاربران شود.
مدیرعامل واتساپ نیز به صراحت اعلام کرده است چون از نظر وی چنین اقداماتی حریم شخصی افراد را در سراسر جهان به خطر میاندازد، چنین قصدی ندارد؛ وی رویکرد اپل را بسیار نگرانکننده توصیف کرده است زیرا به دولتهای مختلف جهان با دیدگاههای متفاوت در مورد تصاویر مستهجن امکان میدهد تا تصاویری را که شاید عملاً مشکلی نداشته باشند به پایگاه داده این نوع تصاویر اضافه کند؛ به گفته وی سیستم واتساپ برای مقابله با این تصاویر، مبتنی بر گزارشهای کاربران است و از این طریق در سال 2020 بیش از 400 هزار گزارش دریافت شده است.
اپل به اسکاینیوز گفته است که این سیستم تشخیصی با حفظ حریم خصوصی کابران ساخته شده است و به این ترتیب فقط تصاویر مستهجن و حاوی محتوای غیراخلاقی را شناسایی میکند.
انتهای پیام/