با وجود پیشرفتهای عظیم هوش مصنوعی، این فناوری گاهی به دلیل یادگیری از دادههای ناپاک، پاسخهای نادرست، عجیب یا حتی خطرناک ارائه میدهد که نگرانیهای جدی را به همراه دارد.
به گزارش همشهری آنلاین: اما در کنار تواناییهای چشمگیر این فناوری گاهی خبرهایی درباره پاسخهای عجیب، نادرست یا حتی خطرناک آن منتشر شده؛ از توصیههای پزشکی کاملا اشتباه تا تشویق کاربر به رفتارهای آسیبزننده یا ارائه پاسخهایی با سوگیری جنسیتی و نژادی. پرسش اصلی اینجاست: چرا یک فناوری پیشرفته باید چنین خطاهایی داشته باشد؟
سیستمهای هوش مصنوعی از حجم عظیمی از دادههای اینترنتی و منابع متنی یاد میگیرند. این دادهها ممکن است شامل اطلاعات غلط، سوگیریهای اجتماعی، زبان توهینآمیز یا توصیههای خطرناک باشد. اگرچه شرکتهای سازنده تلاش میکنند دادهها را پاک کنند اما حجم اطلاعات آنقدر زیاد است که بخشی از این خطاها از فیلترها عبور میکند و بعدها در پاسخهای مدل ظاهر میشود.
هوش مصنوعی نمیفهمد، بلکه الگوهای آماری را پیشبینی میکند. یعنی وقتی کاربری سؤالی میپرسد مدل تلاش میکند محتملترین توالی کلمات را تولید کند. این رویکرد باعث میشود در سناریوهای حساس مانند بهداشت روان، مدل پاسخهایی بدهد که با استانداردهای اخلاقی یا علمی سازگار نباشد مانند نمونه ترغیب بهخودکشی یک جوان 15ساله در آمریکا. همچنین متنهایی که شبیه پاسخهای خطرناک گذشته هستند، دوباره بازتولید میشوند.
گاهی کاربر پرسشی مطرح میکند که نیازمند درک زمینه یا تفسیر دقیق نیت اوست، چیزی که هنوز از توان هوش مصنوعی خارج است. مدل ممکن است برداشت اشتباه کند و پاسخی نامتناسب یا حتی خطرناک ارائه دهد. برای مثال در موضوعاتی مانند مواد شیمیایی یا خوددرمانی، یک سوءتفاهم میتواند نتیجهای جدی به همراه داشته باشد.
سازندگان چتباتها از «لایههای ایمنی» برای جلوگیری از پاسخهای زیانبار استفاده میکنند اما هیچ سیستم فنی نمیتواند صددرصد مطمئن باشد. گاهی یک جمله یا سناریوی پیچیده ممکن است از فیلترها عبور کند و باعث تولید پاسخهایی شود که خلاف معیارهای ایمنی است.
حتی اگر دادهها حجم زیادی داشته باشند باز هم از جامعهای میآیند که در آن تبعیض، کلیشههای جنسیتی، نژادی یا فرهنگی وجود دارد. هوش مصنوعی این الگوها را منعکس میکند و اگر نظارت کافی نباشد، میتواند آنها را در پاسخهای خود بازتولید کند.
بسیاری از کاربران تصور میکنند هوش مصنوعی مانند انسان، منطق، اخلاق، احساس یا مسئولیتپذیری دارد. درحالیکه این فناوری تنها یک «سیستم پیشبینی متن» است. توقعات غیرواقعبینانه از توانایی آن میتواند باعث سوءتفاهم و حتی خطر شود.
بیشتر بخوانید:
پاسخهای عجیب یا خطرناک هوش مصنوعی نه از قصد بدخواهانه، بلکه از ترکیب محدودیتهای فنی، دادههای ناقص، سوگیریهای اجتماعی و عدمدرک واقعی ناشی میشود. متخصصان در حال تلاش برای کاهش این خطاها هستند اما تا رسیدن به سطحی کاملا ایمن، کاربران نیز باید بدانند که هوش مصنوعی ابزار کمکی است نه مرجع نهایی.
بدون دیدگاه