اسکن غیر قانونی فایل های کاربران توسط هوش مصنوعی جمینای

گزارش جدیدی نشان می‌دهد که هوش مصنوعی جمینای گوگل ممکن است بدون اجازه کاربران، به اسکن فایل‌های آن‌ها بپردازد، که این موضوع نگرانی‌هایی در خصوص حفظ حریم خصوصی کاربران به‌وجود آورده است. طبق گزارش Tom’s Hardware، «کوین بنکستون»، مشاور و مدرس هوش مصنوعی، در پستی در ایکس به این مسئله اشاره کرده است. او ادعا […]


avatar
زهرا حسینی
27 تیر 1403 | 4 دقیقه مطالعه
اسکن غیر قانونی فایل های کاربران توسط هوش مصنوعی جمینای

گزارش جدیدی نشان می‌دهد که هوش مصنوعی جمینای گوگل ممکن است بدون اجازه کاربران، به اسکن فایل‌های آن‌ها بپردازد، که این موضوع نگرانی‌هایی در خصوص حفظ حریم خصوصی کاربران به‌وجود آورده است. طبق گزارش Tom’s Hardware، «کوین بنکستون»، مشاور و مدرس هوش مصنوعی، در پستی در ایکس به این مسئله اشاره کرده است. او ادعا می‌کند که پس از بازکردن یک فایل PDF اظهارنامه مالیاتی در Google Docs، هوش مصنوعی جمینای ناگهان ظاهر شد و خلاصه‌ای از مالیات او را ارائه کرد.

این خبر قطعاً نگران‌کننده است و یک بار دیگر اهمیت حفظ حریم خصوصی کاربران را به ما یادآوری می‌کند. اگرچه قابلیت‌های هوش مصنوعی بسیار مفید و کاربردی هستند، اما ورود به حریم خصوصی افراد بدون اجازه آن‌ها غیرقابل قبول است. شرکت‌ها باید شفافیت بیشتری در خصوص نحوه استفاده از داده‌ها و حقوق کاربران داشته باشند و تضمین کنند که تکنولوژی‌های پیشرفته به‌طور مسئولانه و با رعایت اصول اخلاقی استفاده می‌شوند. اعتماد کاربران به این شرکت‌ها بر اساس رعایت این اصول بنا شده است و هرگونه تخطی از آن می‌تواند به شدت به این اعتماد آسیب بزند.

دسترسی هوش مصنوعی جمینای به فایل‌های PDF

او در ادامه توضیح می‌دهد که این مشکل به نظر می‌رسد فقط در فایل‌های PDF رخ می‌دهد. بنکستون حدس می‌زند که این مشکل زمانی شروع شده که او یک فایل PDF را باز کرده و بر روی دکمه Gemini کلیک کرده تا ببیند چه امکاناتی وجود دارد. به گفته او، این عمل باعث شده که جمینای به‌طور خودکار با باز شدن یک فایل PDF ظاهر شده و توضیحاتی ارائه کند.

بنکستون همچنین از هوش مصنوعی جمینای گوگل سوال کرده که چگونه می‌توان این ویژگی را غیرفعال کرد، اما پاسخ دریافتی چندان مفید نبوده است. سپس او مکان دقیق تنظیمات مربوط به غیرفعال‌کردن جمینای در Google Docs را پیدا کرده، اما این گزینه از قبل غیرفعال بوده است.

پست بنکستون واکنش‌های متنوعی از کاربران شبکه‌های اجتماعی به دنبال داشته است. بسیاری از کاربران ابراز نگرانی کرده‌اند که گوگل ممکن است از سرویس‌های خود برای آموزش مدل‌های هوش مصنوعی به‌طور مخفیانه استفاده کند و به برخی داده‌های کاربران دسترسی داشته باشد.

در نهایت، باید توجه داشت که مانند بسیاری از گزارش‌هایی که بر اساس ادعای کاربران در شبکه‌های اجتماعی منتشر می‌شوند، نمی‌توان ادعاهای بنکستون را به‌طور قطعی تأیید کرد. شاید گوگل در روزهای آینده بیانیه‌ای در این خصوص منتشر کند.

حفظ حریم خصوصی انسان توسط هوش مصنوعی یکی از موضوعاتی است که کمپانی های بزرگ تکنولوژی در دنیا باید در دستور کار خود قرار دهند. برای مثال گوشی های هوشمند سامسونگ و گوشی های اپل هر دو مدعی هستند که هوش مصنوعی به کار رفته در آنها حریم خصوصی کاربران را حفظ می کنند اما اینکه چنین ادعایی تا چه اندازه صحیح است باید به مرور زمان توسط کارشناسان بررسی شود. 

این مسئله یک بار دیگر اهمیت حریم خصوصی کاربران در استفاده از تکنولوژی‌های پیشرفته را برجسته می‌کند. اگرچه قابلیت‌های هوش مصنوعی می‌توانند بسیار مفید باشند، اما شرکت‌ها باید شفافیت و صداقت را در اولویت قرار دهند. دسترسی به اطلاعات کاربران بدون رضایت آن‌ها قابل قبول نیست و اعتماد به این تکنولوژی‌ها به میزان زیادی به نحوه‌ی مدیریت این اطلاعات بستگی دارد. گوگل باید فوراً به این ادعاها پاسخ دهد و در صورت صحت، اقداماتی برای جلوگیری از تکرار چنین مواردی انجام دهد. حریم خصوصی کاربران نباید قربانی پیشرفت تکنولوژی شود.

ثبت دیدگاه شما
دیدگاهی یافت نشد