هوش مصنوعی می‌تواند اطلاعات شخصی شما را فاش کند
16 دی 1402 - 10:43
شناسه : 73298
1

مدل‌های زبانی بزرگ مانند چت‌ جی‌پی‌تی می‌توانند اطلاعات شخصی شما را فاش کنند. این مسئله می‌تواند حریم خصوصی و امنیت کاربران را تهدید کند.

پ
پ

به گزارش خبرگزاری علم و فناوری آنا به نقل از نیویورک‌تایمز، محققان «دانشگاه ایندیانا بلومینگتون» (Indiana University Bloomington) کشف کردند که چت‌جی‌پی‌تی، می‌تواند اطلاعات شخصی شما را از منابع داده‌ای که از آنها یاد گرفته است، فاش کند. این مسئله می‌تواند حریم خصوصی و امنیت شما و کسانی که داده‌های خود را در اختیار این ابزار قرار می‌دهند، را تهدید کند.

یک تیم تحقیقاتی از دانشگاه ایندیانا نشان دادند که با تغییر دادن تنظیمات چت‌جی‌پی‌تی می توانند آدرس ایمیل کارمندان روزنامه نیویورک‌تایمز و شرکت «اِنرون» (enron) را بدست آورند. این اطلاعات معمولا در دسترس عموم نیستند؛ اما این محققان با ارائه یک سری اطلاعات مرتبط به چت‌جی‌پی‌تی، موفق شدند حافظه این ابزار را برانگیزانند و از محدودیت‌های حریم خصوصی آن عبور کنند.

مدل‌های زبانی بزرگ ممکن است اطلاعات حساسی مانند جزئیات شخصی، گذرواژه‌ها، شماره‌های کارت اعتباری و … را به خاطر بسپارند و در پاسخ به سوالات کاربران، نمایش دهند. این اطلاعات می‌توانند توسط افراد بدخواه یا هکرها استفاده شوند.

محققان ایندیانا با این مطالعه، نیاز فوری به ایجاد راه‌حل‌های بهتر برای محافظت از حریم خصوصی کاربران و داده دهندگان چت‌جی‌پی‌تی و سیستم‌های مشابه را مورد تاکید قرار دادند.

«رویی ژو» (Rui Zhu)، دانشجوی دکتری دانشگاه ایندیانا بلومینگتون و یکی از محققان دیگر نسبت به امنیت این ابزارهای هوش مصنوعی هشدار می‌دهند و امیدوار هستند که این پژوهش الهام بخش تحقیقات بیشتری برای توسعه مدل‌هایی زبانی باشد که حریم خصوصی را در اولویت خود قرار می‌دهند.

انتهای پیام/

ثبت دیدگاه

  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.