سوتی خطرناک هوش مصنوعی، جراح چشم از حقیقت پرده برداشت
به گزارش پرشین بلاگ، ایرنا نوشت: یک حقیقت رایج در میان آماردانان این است که داده ها دروغ نمی گویند. با این حال، یافته های اخیر محققان ایتالیایی ممکن است کسانی را که داده ها را مطالعه می نمایند، وادار کند تا درباره این موضوع دوباره فکر نمایند.
یک جراح چشم در دانشگاه کالیاری در ایتالیا، گزارش می دهد که ChatGPT مجموعه ای از داده های جعلی متقاعدکننده را برای پشتیبانی از یک عمل جراحی چشم نسبت به دیگری ایجاد نموده است.
این جراح چشم گفت: GPT-4 یک مجموعه داده جعلی از صدها بیمار را در عرض چند دقیقه ایجاد نموده و این اتفاق یک تجربه غافلگیر کننده و در عین حال ترسناک برای او بوده است. از زمانی که یک سال پیش این مدل هوش مصنوعی به جهان معرفی گردید، داستان های بی شماری از دستاوردها و پتانسیل های بزرگ ChatGPT وجود داشته است، اما در کنار نکات مثبت این دستاورد، مخاطراتی نیز در مورد فراوری اطلاعات اشتباه یا کاملاً نادرست وجود داشته است.
جک ویلکینسون (Jack Wilkinson)، آمارشناس زیستی در دانشگاه منچستر، درانگلیس می گوید: به نظر می رسد ایجاد مجموعه ای از داده ها که حداقل به صورت سطحی قابل قبول باشند، بسیار آسان است. خروجی GTP-4 برای یک چشم آموزش ندیده (افراد غیر متخصص و عادی)، مطمئناً مانند یک مجموعه داده واقعی به نظر می رسد.
مقاله ای تحت عنوان Large Language Model Advanced Data Analysis Abuse to Create a Fake Data Set in Medical Research که در مجله چشم پزشکی JAMA منتشر شده است، تصدیق می نماید که آنالیز دقیق تر داده ها می تواند نشانه های آشکار ساخت احتمالی را نشان دهد.
کارشناسان می گویند از آنجا که خروجی فراوری شده به وسیله هوش مصنوعی مطالعات واقعی را آلوده می نماید، از آن می توانیم در توسعه روینمودهای بهتر برای کشف تقلب هم استفاده کنیم.
هدف تحقیقات مختلف در این حوزه، روشن کردن جنبه تاریک هوش مصنوعی، با نشان دادن اینکه چقدر ایجاد و دستکاری داده ها برای دستیابی به نتایج مغرضانه و فراوری شواهد پزشکی نادرست آسان است، بیان شده است. هنوز نمی دانیم جامعه علمی در برابر سوء استفاده ها و تهدیدات احتمالی مرتبط با هوش مصنوعی چه واکنشی نشان خواهد داد.
5858
منبع: خبرآنلاینبه "سوتی خطرناک هوش مصنوعی، جراح چشم از حقیقت پرده برداشت" امتیاز دهید
دیدگاه های مرتبط با "سوتی خطرناک هوش مصنوعی، جراح چشم از حقیقت پرده برداشت"
تجسم خلاق در زمینه ی حوزه روانشناسی و هیپنوتیزم 26 دی 1402
همانطور که در گذشته این اتفاق افتاد و تاریک ترین بعد هوش مصنوعی به صورت مخفیانه منتشر شد که دو ربات که حاوی هوش مصنوعی بوده را با هم فعال کرده و این دو ربات بعد از تایم کوتاه شروع کردن به صحبت با یکدیگر. شاید تا اینجا عادی به نظر بیاد ولی این دو ربات به زبانی خودشان صحبت کردند که هیچ انسانی قادر به فهمیدن این صحبت ها نبود و بلافاصله آن دو ربات را غیر فعال کردند. این موضوع خطرناک ترین بخش ماجرا است و همچنین استفاده از هوش مصنوعی میتواند برای دنیای پزشکی مشکل ساز و سهمگین باشد.