
وقتی چتجیپیتی به مسئله افلاطون پاسخ اشتباه میدهد
در مطالعهای نو از دانشگاه کمبریج، دو پژوهشگر آموزش ریاضی عملکرد چتجیپیتی را در پاسخ به یکی از قدیمیترین مسائل فلسفی-ریاضی بررسی کردند؛ مسئلهای که نخستین بار توسط سقراط به شاگردی بیسواد آموزش داده شد. نتیجه اما نشان داد که هوش مصنوعی هنوز با درک انسانی فاصله دارد.
به گزارش پارسینه پلاس،دو پژوهشگر از دانشگاه کمبریج در بررسی تازهای به سراغ یکی از کهنترین مسائل ریاضی رفتند؛ «دو برابر کردن مربع»، مسئلهای که افلاطون در سال ۳۸۵ پیش از میلاد آن را شرح داده و سقراط با روش هندسی خاصی به شاگردی بیسواد آموزش داده بود.
هدف این مطالعه، سنجش توانایی چتجیپیتی در بازتولید راهحل هندسی سقراط بود.
اما برخلاف انتظار، این سامانه هوش مصنوعی به جای بازسازی روش کلاسیک، رویکردی بداهه و جبرمحور در پیش گرفت و حتی دچار خطا شد.
پژوهشگران این رفتار را «شبیه یادگیری انسانی» توصیف کردند؛ رفتاری که نشان میدهد هوش مصنوعی نیز مانند انسانها ممکن است مسیرهای نادرست را تجربه کند.
نویسندگان این مطالعه تأکید کردند که اثباتهای تولیدشده توسط هوش مصنوعی نباید بهعنوان منابع معتبر در آموزش ریاضی تلقی شوند.
به باور آنان، درک و ارزیابی پاسخهای هوش مصنوعی باید بهعنوان مهارتی تازه در برنامههای آموزشی گنجانده شود.
پژوهشگران همچنین پیشنهاد دادند که استفاده از هوش مصنوعی در آموزش باید تعاملی باشد؛ یعنی بهجای دستور مستقیم «پاسخ را بده»، باید از آن خواست «بیایید این مسئله را با هم بررسی کنیم»—رویکردی که میتواند به پرورش تفکر انتقادی در دانشجویان کمک کند.