شرکتها معمولا در مورد محصولات مبتنیبر هوش مصنوعی خود اغراق میکنند و خبرنگاران نیز معمولا دانش کافی برای درک اغراقها را ندارند. استفاده بیمورد از عکس رباتها، نادیدهگرفتن نقش انسان، یا کماهمیت جلوهدادن محدودیتها از جمله موارد شایع در پوشش خبرنگاری اخبار حوزه هوش مصنوعی است. این امر منجر به گمراهی افکارعمومی و آگاهنبودن آنها در خصوص تواناییها و محدودیتهای هوش مصنوعی میشود.
Arvind Narayanan، استاد کامپیوتر دانشگاه پرینستون، از پژوهشگران فعال در حوزه مقابله با اغراق و انتشار اطلاعات گمراهکننده در خصوص هوش مصنوعی است. او اخیرا در یک پروژه جالب اقدام به بررسی مقالات معتبر کاربرد هوش مصنوعی در رشتههای مختلف کرده و انواع اشتباهات رایج را جمعآوری کرده است. یکی از دستاوردهای جنبی این پروژه ۱۸ اشتباه رایج خبرنگاران در پوشش اخبار هوش مصنوعی است که در ادامه با هم آنها را مرور میکنیم.
مثالهایی از تیترهای نادرست و گمراهکننده
تمامی این تیترها که هر ۳ توسط خبرگزاریهای معتبر منتشرشدهاند، مسائل مهمی چون جهتدار بودن عملکرد مدل هوش مصنوعی، محدودیتهای مدلها، و عدم انجام تستهای کافی را نادیده گرفتهاند. در ادامه به برخی از اشتباهات متداول خبرنگاران در پوشش اخبار مصنوعی اشاره خواهیم کرد.
اشتباه ۱: نسبتدادن “عاملیت” به هوش مصنوعی
توصیف عملکرد سیستمهای مبتنیبر هوش مصنوعی بهصورتی که مستقل از انسان بهنظر برسند.
اشتباه ۲: تصاویر وسوسهانگیز
استفاده از تصاویر رباتها در حالی که مدل یا محصول هیچ ارتباطی با رباتها ندارند و فقط یک نرمافزار یادگیری از روی دادگان هستند.
اشتباه ۳: مقایسه با هوش انسان
توصیف عملکرد مدلهای هوش مصنوعی بهنحوی که مشابه عملکرد مغز انسان بهنظر برسند.
اشتباه ۴: مقایسه با مهارتهای انسان
مقایسه عملکرد هوش مصنوعی با انسان در مورد یک مساله خاص بهنحوی که استنباط شود هوش مصنوعی در تمامی مسائل کاربرد دارد.
اشتباه ۵: اغراق
توصیف سیستمهای مبتنیبر هوش مصنوعی به عنوان انقلابی و پیشگام بودن، بدون ارائه اسناد معتبر درخصوص دقت و مفیدبودن آنها، خصوصا در مسائلی که قبلا محدودیتهای هوش مصنوعی در آن اثبات شده است (مانند پیشبینی رفتار انسانها)
اشتباه ۶: مقایسه غیرانتقادی با تحولات تاریخ بشر
مقایسه هوش مصنوعی با تحولاتی چون اختراع برق و انقلاب صنعتی بدون ارائه مستندات محکم در خصوص کاربرد در دنیای واقعی
اشتباه ۷: ادعاهای اثباتنشده در خصوص آینده
ادعا در مورد فراگیرشدن هوش مصنوعی در آینده نزدیک بهنحوی که تمام صنایع را دربر میگیرد و جایگزین اکثر مشاغل میشود، در حالی که مستندات واقعی در این مورد این ادعاها را اثبات نمیکند.
اشتباه ۸: ادعای نادرست در خصوص عملکرد
ادعاهای اشتباه در مورد مسائلی که هوش مصنوعی میتواند حل کند (مثلا پیشبینی جنگ یا تظاهرات یا رتبه کنکور)
اشتباه ۹: ادعاهای نادرست در خصوص مقالات علمی
گزارشهای خبری معمولا برای افزایش ادعای خود به مقالات علمی ارجاع میدهند، در حالی که در اغلب موارد نتایج آن مقالات علمی با ادعاهای آن گزارش خبری ناسازگار است.
اشتباه ۱۰: استفاده از الفاظ عمیق برای مسائل ساده
استفاده از الفاظی مانند “معجزه” و “جهان آینده ” و “تحول اساسی” برای سیستمهایی که کارهای بسیار ساده انجام میدهند.
اشتباه ۱۱: درنظرگرفتن روابط عمومی شرکتها و پژوهشگران بهعنوان افراد خنثی
درنظر نگرفتن این نکتته بدیهی که معمولا شرکتها و پژوهشگران و دانشگاهها در مورد دستاوردهای خود اغراق میکنند. این اغراقها توسط سایر متخصصین که تضاد منافع ندارند بهسادگی قابل شناسایی است.
اشتباه ۱۲: استفاده از الفاظی که توسط روابطعمومیها نوشته شده
گزارشنویسی بر اساس ادبیات و واژگان انتخابشده توسط روابطعمومیها بهجای توصیف ساده و دقیق هدف و نحوه کارکرد ایک ابزار مبتنی بر هوش مصنوعی
اشتباه ۱۳: عدم بحث در مورد محدودیتها
بحثنکردن در خصوص محدودیتهای هوش مصنوعی مانند جهتدار بودن، تستنشدن بر روی دادگان تعمیمپذیر، و دقت ناکافی منجر به ایجاد فهم نادرست در ذهن خواننده و عدم آشنایی با ریسکهای احتمالی میشود.
اشتباه ۱۴: کماهمیت نشاندادن محدودیتها
حتی وقتی محدودیتهای هوش مصنوعی بحث میشود، در مواقعی اهمیت آنها کم نشانداده میشوند.
اشتباه ۱۵: بحث در مورد محدودیتها در قالب شبهات
گزارش محدودیتهای هوش مصنوعی در قالب افرادی که به تواناییهای هوش مصنوعی واقف نیستند و صرفا تولید شبهه میکنند.
اشتباه ۱۶: کماهمیت نشاندادن نقش انسان
عدم توجه به نقشهای ضروری انسانی در فرآیند طراحی و تولید یک مدل هوش مصنوعی
اشتباه ۱۷: گزارش دقت مدل بدون توجه به جزئیات
گزارش دقت مدل بدون توجه به نحوه محاسبه آن و عدم بحث در مورد تعمیمپذیربودن این دقت به انواع دادگان دیگر یا به آینده
اشتباه ۱۸: تصویرکردن هوش مصنوعی بهصورت جعبه سیاه
نمایش مدلهای هوش مصنوعی بهصورت یک جعبه سیاه غیرقابل فهم توسط انسان که منجر به عدم شفافیت و مسئولیتپذیری توسعهدهندگان آن میشود.