تشابه ساختار تفکر هوش مصنوعی و انسان ثابت شد

به گزارش خبرنگار خبرآنی؛ در سال‌های اخیر، پیشرفت شگرف مدل‌های زبانی و بینایی هوش مصنوعی مبتنی بر معماری ترنسفورمر (Transformer) مرزهای درک ما از ظرفیت‌های این فناوری نوظهور را جابه‌جا کرده است. معماری ترنسفورمر که مبنای مدل‌های پیشرفته‌ای از جمه «GPT» و «Vision Transformer» است، توانسته درک ماشینی از زبان و تصویر را تا حدی ارتقا دهد که خروجی‌های تولیدشده به شکل چشمگیری به پاسخ‌های انسانی شباهت پیدا کنند.

این در حالی است که پژوهشی مشترک میان دانشگاه‌های هاروارد، براون و توبینگن پا را فراتر نهاده و این پرسش بنیادین را مطرح کرده است که آیا شباهت میان انسان و هوش مصنوعی صرفاً در سطح پاسخ نهایی است یا در لایه‌های زیرین پردازش نیز مشابهت‌هایی میان پردازش مغز و ماشین وجود دارد. یافته‌های این تحقیق نشان می‌دهد که فرایندهای درونی این مدل‌ها به‌ویژه نحوه تحول احتمالات و اطمینان در طول لایه‌های شبکه عصبی و پردازش اطلاعات، به‌نحو شگفت‌انگیزی با مراحل پردازش شناختی در مغز انسان قرابت دارند. به عقیده بسیاری از متخصصان، این هم‌ارزی ساختاری می‌تواند پیامدهایی بنیادین برای حوزه‌های مدل‌سازی شناختی، تحلیل رفتاری، علوم اعصاب محاسباتی و طراحی سامانه‌های هوشمند تبیین‌پذیر داشته باشد؛ به‌ویژه در مسیر توسعه مدل‌هایی که نه تنها خروجی‌های دقیق بلکه فرایندهای فکری قابل‌درک و همساز با ادراک انسانی ارائه می‌دهند.

خبرنگار خبرآنی در این نوشته کوتاه به مرور برخی از ابعاد پژوهش صورت گرفته و یافته‌های آن درباره الگوی تفکر هوش مصنوعی و مغز انسان می‌پردازد.

الگوی مشابه فرایند تفکر در انسان و ماشین

پژوهش یادشده با هدف بررسی تشابهات پردازشی میان مدل‌های هوش مصنوعی ترنسفورمر و نظام‌های ادراکی انسان، تمرکز خود را از تحلیل صرفِ خروجی مدل به بررسی «پویایی‌های لایه زمان» (layer-time dynamics) در جریان گذار معطوف کرده است. بر همین اساس، در فرآیند «forward pass»، داده ورودی به صورت مرحله‌ای از هر لایه شبکه عبور می‌کند تا به خروجی نهایی برسد. پژوهشگران برای نخستین بار این سیر پردازشی درونی را با روندهای شناختی انسان در حل مسئله مقایسه کرده‌اند. آنان در این پژوهش مشترک تلاش کردند با بهره‌گیری از داده‌های رفتاری انسانی نظیر دقت پاسخ، زمان واکنش، مسیر ماوس و رفتارهای معطوف بر تایپ محتوا، به درک بهتری از هم‌پوشانی شناختی انسان و مدل‌های یادشده دست یابند.

در این چارچوب، چهار مؤلفه کلیدی برای سنجش پویایی‌های درونی مدل‌ها تعریف شد که هر یک بازتابی از نحوه «فکر کردن» مدل در گذر زمان هستند:

۱. میزان عدم قطعیت یا ابهام (entropy)
2. میزان اطمینان به پاسخ صحیح (log probability) یا (reciprocal rank)
3. اطمینان نسبی بین پاسخ صحیح و یک پاسخ نادرست ولی شهودی
۴. شاخص توانمندسازی پاسخ درست در برابر پاسخ شهودی اشتباه

این سنجه‌ها در سه مقیاس زمانی ارزیابی شدند که جزیات آن به شرح زیر است:

۱. مقدار نهایی در خروجی مدل
۲. مساحت زیر منحنی روند تغییرات در تمام لایه‌ها (AUC)
3. نقطه اوج تغییرات بین لایه‌ها (Max-delta) یا لحظه «تصمیم‌گیری» نهایی مدل برای ارائه پاسخ

این پژوهش پنج مطالعه تجربی را در حوزه‌های زبانی، منطقی و بینایی شامل می‌شد. در مطالعه نخست، شرکت‌کنندگان نام پایتخت ایالت‌هایی نظیر ایلینوی را به یاد می‌آوردند؛ جایی که پاسخ شهودی، یعنی شیکاگو با پاسخ واقعی، یعنی شهر اسپرینگفیلد تفاوت دارد. مدل‌های ترنسفورمر در فرایند حل این مسئله، روندی مشابه انسان را نشان دادند. آن‌ها در لایه‌های میانی پردازش خود بیشتر با پاسخ شهودی همسو بودند و تنها در مراحل نهایی پاسخ صحیح تقویت می‌شد. این الگو نه‌تنها در خروجی نهایی، بلکه در مسیر تحول احتمال پاسخ‌ها نیز بازتاب یافت و به‌خوبی با الگوی تردید و اطمینان در ذهن انسان مطابقت داشت.

در مطالعه دوم، وظیفه شناسایی صحیح بین دو گزینه متناقض برای هوش مصنوعی مطرح شد. در این حالت، سنجه‌های اطمینان نسبی (مثل اختلاف لگاریتم احتمال) بیشترین قدرت پیش‌بینی رفتار انسان را به‌ویژه در پیش‌بینی دقت پاسخ و زمان واکنش نشان دادند.

پژوهشگران در مطالعه سوم، دسته‌بندی مفهومی بر اساس نمونه‌ها و مسیر حرکت ماوس مانند طبقه‌بندی نهنگ به‌عنوان پستاندار را مورد ارزیابی دقیق قرار دادند. در این مرحله نیز سنجه‌های پردازشی مدل توانستند ویژگی‌های حرکتی ماوس انسان را پیش‌بینی کنند و شتاب یا مسیر آن با میزان اطمینان مدل ارتباط مستقیم داشت.

مدل‌های هوش صمنوعی در مطالعه چهارم، آزمون‌های استدلال قیاسی دریافت کردند. این آزمون‌ها چالشی برای منطق انسان محسوب می‌شوند زیرا پاسخ‌ها اغلب تحت تأثیر باورهای پیشینی افراد قرار می‌گیرند. مدل‌های مورد بررسی نیز در چنین مواردی سوگیری‌هایی مشابه بروز دادند و سنجه‌های «اطمینان میانگین در طول لایه‌ها» در این بخش با دقت و زمان واکنش انسانی همبستگی بالایی داشت.

در نهایت، در پنجمین مطالعه، مدل «Vision Transformer» در حوزه بینایی مورد بررسی قرار گرفت. نتیجه آن که حتی در وظایف سخت‌تری مانند تشخیص تصویر از مجموعه‌های خارج از توزیع (OOD)، مشخص شد که رفتار پردازشی مدل با انسان مشابه است. بر اساس اعلام پژوهشگران حاضر در این پروژه علمی، متریک عدم‌قطعیت (entropy) به صورت ویژه در طول لایه‌ها توانست به‌خوبی دقت و زمان واکنش انسان را در این موقعیت‌ها پیش‌بینی کند.

این مجموعه از مطالعات، نشان داد که مدل‌های بزرگ نه تنها خروجی‌های مشابه با انسان دارند، بلکه فرآیند رسیدن به آن خروجی‌ها نیز از نظر سازوکارهای زمانی و پردازشی، به نحوی با مراحل ادراک انسانی هم‌راستا و شبیه است. از همین روی، نتایج این پژوهش پرسش‌های تازه‌ای در باب کارکردهای شناختی مدل‌های زبانی و ظرفیت آن‌ها برای تحلیل، شبیه‌سازی و حتی آموزش فرایندهای ذهنی انسان مطرح می‌سازد.

جمع‌بندی

یافته‌های این پژوهش، نشانه‌ای قدرتمند از همگرایی فرآیندهای شناختی در انسان و ماشین است. برخلاف دیدگاهی که مدل‌های هوش مصنوعی را صرفاً به‌مثابه جعبه‌های سیاه در نظر می‌گیرد و آن‌ها را ابزاری می‌داند که صرفاً ورودی را به خروجی نگاشت می‌کنند بدون آنکه بتوان از درون آن‌ها چیزی درباره سازوکارهای شناختی آموخت، نتایج این تحقیق حاکی از آن است که برخی مکانیسم‌های پردازشی درونی مدل‌های ترنسفورمر، هم‌راستا با مراحل تصمیم‌سازی و حل مسئله در مغز انسان عمل می‌کنند. به‌ویژه روند تغییر اعتماد و عدم‌قطعیت در لایه‌های مختلف مدل، بسیار شبیه به نوسانات ذهنی انسان در مواجهه با انتخاب‌های متناقض، درگیری با تردید و تثبیت نهایی تصمیم است.

به عقیده کارشناسان، این هم‌پوشانی نه‌تنها افق‌های جدیدی را برای توسعه سامانه‌های هوشمند شفاف، تبیین‌پذیر و قابل‌درک از منظر انسانی گشوده است، بلکه می‌تواند در آینده به ابزاری بدل شود که برای مدل‌سازی شناخت، آزمون فرضیه‌های روان‌شناختی و طراحی مداخلات آموزشی مبتنی بر الگوهای ذهنی انسان مورد استفاده قرار گیرند. به عبارت دیگر، این نتایج می‌توانند پلی میان علوم شناختی تجربی و علوم رایانشی برقرار سازند.

با وجود این، باید با احتیاط علمی به این یافته‌ها نگریست. نخست آن که دامنه تعمیم‌پذیری این الگوهای همگرایی هنوز محدود به مدل‌های خاص و وظایف مشخصی است که در این پژوهش مورد بررسی قرار گرفته‌اند. هنوز مشخص نیست که آیا این شباهت در سایر معماری‌ها، حوزه‌های موضوعی یا وظایف چندوجهی نیز مشاهده خواهد شد یا خیر. نکته دوم نیز تمایز میان بازنمایی‌های آماری جمعی و تقلید از فرآیندهای شناختی فردی یک پرسش کلیدی و بنیادین باقی مانده است. آیا این مدل‌ها واقعاً مانند انسان «فکر می‌کنند»، یا صرفاً الگویی میانگین از رفتار هزاران انسان را بازتولید می‌کنند؟ پاسخ به این پرسش بنیادین، نه‌تنها برای تفسیر شناختی نتایج بلکه برای تعیین قابلیت اعتماد به مدل در تصمیم‌سازی‌های حساس نیز اهمیت اساسی دارد.

با این همه، این مطالعه را می‌توان گامی رو به جلو در رمزگشایی از سازوکارهای درونی مدل‌های بزرگ زبانی و بینایی دانست؛ اقدامی که تلاشی نوین برای اتصال حوزه یادگیری ماشین به فهم عمیق‌تری از ماهیت تفکر، ادراک و داوری انسانی در لحظه محسوب می‌شود.

منبع : مهر

آخرین خبر ها

پربیننده ترین ها

دوستان ما

گزارش تخلف

همه خبرهای سایت از منابع معتبر تهیه و منتشر می‌شود. در صورت وجود هرگونه مشکل از طریق صفحه گزارش تخلف اطلاع دهید.