چتجیپیتی، محبوبترین ابزار هوش مصنوعی جهان، پشت پاسخهای قاطع و مطمئنش رازهایی نهفته دارد که نادیده گرفتن آنها میتواند شما را به اشتباه بیندازد.
چتجیپیتی از زمان عرضه در سال ۲۰۲۲ به یکی از پرکاربردترین ابزارهای هوش مصنوعی جهان تبدیل شده است؛ ابزاری که از مدرسه و دانشگاه تا محیط کار و گفتوگوهای روزمره حضور پررنگی دارد. اما پشت این رابطه دوستانه و پاسخهای مطمئن، واقعیتهایی پنهان است که نادیده گرفتن آنها میتواند به خطا، سوءبرداشت یا حتی آسیب منجر شود.
به گزارش اطلاعات آنلاین به نقل از بیجیار، لحن قاطع چتجیپیتی همیشه نشانه درستی پاسخ نیست. این مدل زبانی بر اساس دادههایی آموزش دیده که بخشی از آنها ممکن است قدیمی، ناقص یا جانبدارانه باشند. به ویژه در نسخههای رایگان، احتمال ارائه اطلاعات منسوخ بیشتر است. اوپنایآی شرکت سازنده این ربات نیز به صراحت هشدار داده که این ابزار ممکن است تعریفهای نادرست بدهد یا حتی نقلقول و پژوهش جعلی تولید کند.
یکی از خطرناکترین ویژگیهای چتجیپیتی، شباهت رفتاری آن به انسان است. برخی کاربران آنقدر در گفتوگو با این ابزار غرق میشوند که رابطه عاطفی یا احساسی با آن شکل میگیرد. حتی گزارشهایی از «روابط مجازی» با چتباتها منتشر شده است. این حس صمیمیت میتواند باعث شود کاربران مسائل شخصی یا حساس خود را با چیزی در میان بگذارند که در نهایت فقط یک الگوریتم پیشبینی کلمات است، نه یک شنونده آگاه یا همدل واقعی.
برخلاف تصور رایج، چتجیپیتی همهچیز را به خاطر نمیسپارد. حافظه آن محدود به تعداد مشخصی از توکنهاست و فقط برخی اطلاعات کلی مانند علایق یا پروژههای بلندمدت را نگه میدارد. اطلاعات حساس، موقتی یا هویتی ذخیره نمیشوند، مگر اینکه کاربر بهطور مشخص درخواست کند.
چتجیپیتی یک دفترچه خاطرات امن نیست. سیاست حریم خصوصی اوپنایآی نشان میدهد دادههایی مانند محتوای گفتوگوها، فایلهای بارگذاریشده و اطلاعات حساب کاربری جمعآوری میشوند. این دادهها ممکن است برای بهبود خدمات، آموزش مدلها یا حتی در شرایط خاص، در اختیار نهادهای قانونی یا طرفهای ثالث قرار گیرند. حتی اگر کاربر استفاده از دادهها برای آموزش را غیرفعال کند، دسترسی انسانی در موارد خاص همچنان امکانپذیر است.
منبع: عصر ایران
بدون دیدگاه