وقتی چت‌جی‌پی‌تی به مسئله افلاطون پاسخ اشتباه می‌دهد

در مطالعه‌ای نو از دانشگاه کمبریج، دو پژوهشگر آموزش ریاضی عملکرد چت‌جی‌پی‌تی را در پاسخ به یکی از قدیمی‌ترین مسائل فلسفی-ریاضی بررسی کردند؛ مسئله‌ای که نخستین بار توسط سقراط به شاگردی بی‌سواد آموزش داده شد. نتیجه اما نشان داد که هوش مصنوعی هنوز با درک انسانی فاصله دارد.

به گزارش پارسینه پلاس،دو پژوهشگر از دانشگاه کمبریج در بررسی تازه‌ای به سراغ یکی از کهن‌ترین مسائل ریاضی رفتند؛ «دو برابر کردن مربع»، مسئله‌ای که افلاطون در سال ۳۸۵ پیش از میلاد آن را شرح داده و سقراط با روش هندسی خاصی به شاگردی بی‌سواد آموزش داده بود.

هدف این مطالعه، سنجش توانایی چت‌جی‌پی‌تی در بازتولید راه‌حل هندسی سقراط بود.

اما برخلاف انتظار، این سامانه هوش مصنوعی به جای بازسازی روش کلاسیک، رویکردی بداهه و جبرمحور در پیش گرفت و حتی دچار خطا شد.

پژوهشگران این رفتار را «شبیه یادگیری انسانی» توصیف کردند؛ رفتاری که نشان می‌دهد هوش مصنوعی نیز مانند انسان‌ها ممکن است مسیرهای نادرست را تجربه کند.

نویسندگان این مطالعه تأکید کردند که اثبات‌های تولیدشده توسط هوش مصنوعی نباید به‌عنوان منابع معتبر در آموزش ریاضی تلقی شوند.

به باور آنان، درک و ارزیابی پاسخ‌های هوش مصنوعی باید به‌عنوان مهارتی تازه در برنامه‌های آموزشی گنجانده شود.

پژوهشگران همچنین پیشنهاد دادند که استفاده از هوش مصنوعی در آموزش باید تعاملی باشد؛ یعنی به‌جای دستور مستقیم «پاسخ را بده»، باید از آن خواست «بیایید این مسئله را با هم بررسی کنیم»—رویکردی که می‌تواند به پرورش تفکر انتقادی در دانشجویان کمک کند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا