به گزارش خبرنگار خبرآنی؛ با پیشرفت روزافزون فناوری هوش مصنوعی، استفاده از این تکنولوژی در تصمیمگیریهای پیچیده و حیاتی بیش از هر زمان دیگری به کانون توجهات تبدیل شده است. از کاربردهای این فناوری در عرصههای مختلف میتوان به حوزههای نظامی، اقتصادی، پزشکی، و اجتماعی اشاره کرد که در هر یک از این حوزهها هوش مصنوعی توانسته است تأثیرات گستردهای بر فرآیند تصمیمگیری و مدیریت به جا بگذارد.
این پیشرفتها، همزمان با افزایش سرعت پردازش و توانایی تحلیل کلاندادهها توسط هوش مصنوعی، فرصتها و چالشهای زیادی را به همراه داشته است. یکی از بحثهای داغ در این حوزه، تفاوت بین قضاوتها و تصمیمگیریهای انسان و هوش مصنوعی است؛ زیرا این دو رویکرد دارای ویژگیهای اساسی و بنیادین متفاوتی هستند. در حالی که انسانها در فرایند تصمیمگیری تحت تأثیر احساسات، تجربه و ملاحظات اخلاقی قرار میگیرند، هوش مصنوعی بر پایه دادهها و الگوریتمهای از پیش تعریفشده عمل میکند.
مهر این نوشتار کوتاه به بررسی دقیق این تفاوتها پرداخته و همچنین مزایا و مخاطرات استفاده از هوش مصنوعی در مقایسه با قضاوتهای انسانی را مورد ارزیابی قرار میدهد.
تفاوت انسان و ماشین در الگوی قضاوت
قضاوتهای انسانی و مبتنی بر هوش مصنوعی در اساس و روشهای تصمیمگیری با یکدیگر تفاوتهای قابلتوجهی دارند. قضاوت انسانی معمولاً بر پایه تجربه، دانش و احساسات صورت میگیرد. انسانها قادر به درک شرایط پیچیده از جنبههای مختلف هستند و در بسیاری از مواقع با در نظر گرفتن عوامل احساسی و فرهنگی، تصمیمگیری میکنند. کارشناسان معتقدند که اگرچه این رویکرد ممکن است موجب بروز خطاهای انسانی و قضاوتهای نادرست شود، اما در عین حال امکان تحلیل مسائل از جنبههای غیرمادی و انسانی را نیز فراهم میکند.
در مقابل، هوش مصنوعی از دادهها و الگوریتمهای ریاضی برای تحلیل اطلاعات و اتخاذ تصمیم استفاده میکند. در قضاوتهای مبتنی بر هوش مصنوعی، هیچگونه احساسات، تعصب یا فشارهای روانی دخالت ندارد و تمام تصمیمگیریها بر اساس دادههای ورودی و الگوهای مشخص صورت میگیرد. بنابراین، این امر میتواند به تصمیمگیریهای سریعتر و دقیقتر منجر شود، اما در عین حال ممکن است این قضاوتها به دلیل فقدان درک انسانی و عدم توجه به عوامل فرهنگی یا اخلاقی، خطراتی را به دنبال داشته باشند.
در ادامه به مرور کوتاه مزایا و معایب سپردن تصمیمات به ماشینها در عصر توسعه هوش مصنوعی میپردازیم.
مزایای قضاوت هوش مصنوعی
سرعت در پردازش اطلاعات: یکی از اصلیترین مزایای هوش مصنوعی در قضاوت، سرعت بسیار بالای آن در پردازش حجم عظیمی از دادهها است. هوش مصنوعی قادر است در مدت زمان کوتاهی اطلاعات گستردهای را تحلیل کند و تصمیمگیریهایی بر پایه دادههای عینی ارائه دهد. این قابلیت در موقعیتهای بحرانی و نیاز به تصمیمگیری سریع، از اهمیت ویژهای برخوردار است.
دقت و عدم تأثیرپذیری از احساسات: قضاوت هوش مصنوعی فاقد احساسات انسانی است؛ امری که میتواند در بسیاری از موارد منجر به کاهش خطاهای ناشی از تعصب یا تأثیرات روانی شود. به عنوان مثال، در شرایطی که انسانها ممکن است تحت تأثیر ترس، خشم یا اضطراب تصمیمات نادرست بگیرند، هوش مصنوعی بر اساس دادهها و الگوریتمهای منطقی تصمیم میگیرد.
توانایی یادگیری و بهبود: هوش مصنوعی همچنین با استفاده از الگوریتمهای یادگیری ماشینی میتواند با تحلیل تصمیمات گذشته، تواناییهای خود را به صورت مرتب بهبود دهد و در آینده تصمیمات بهتری بگیرد. این توانایی باعث میشود که هوش مصنوعی به مرور زمان در اتخاذ تصمیمات دقیقتر و کارآمدتر بهتر از انسان عمل کند.
مخاطرات قضاوت هوش مصنوعی
عدم درک احساسات و شرایط انسانی: یکی از بزرگترین مخاطرات استفاده از هوش مصنوعی در قضاوت، ناتوانی آن در درک احساسات و شرایط انسانی است. هوش مصنوعی نمیتواند احساسات، ارزشها و مسائل فرهنگی یا اجتماعی را به طور کامل درک کند. این ویژگی میتواند در شرایط حساس منجر به اتخاذ تصمیماتی شود که از نظر انسانی نامناسب یا حتی خطرناک باشند.
خطر تشدید بحرانها: در برخی شرایط، هوش مصنوعی ممکن است تصمیمات تهاجمیتری نسبت به انسان اتخاذ کند. به عنوان مثال، در تصمیمگیریهای نظامی، هوش مصنوعی ممکن است بدون توجه به عواقب انسانی یا سیاسی یک اقدام، تصمیماتی بگیرد که باعث تشدید بحرانها یا حتی بروز جنگ شود. این در حالی است که انسانها با توجه به تجربه و در نظر گرفتن جنبههای اخلاقی و انسانی، ممکن است در این وضعیت تصمیماتی ملایمتر اتخاذ کنند.
ریسک خطاهای سیستمی: هرچند که بیتردید هوش مصنوعی از دقت بالایی برخوردار است، اما در اتخاذ تصمیمات حیاتی همچنان خطر بروز خطاهای سیستمی وجود دارد. اشتباهات در طراحی الگوریتمها یا نقص در دادههای ورودی میتواند به تصمیمات نادرست و پیامدهای جدی ناشی از آن منجر شود.
مسئله اعتماد و پاسخگویی: یکی دیگر از چالشهای مهم در این زمینه، مسئله اعتماد به تصمیمات هوش مصنوعی و تعیین مسئولیت در صورت بروز خطا است. به عبارت دیگر، اگر هوش مصنوعی تصمیمی اشتباه بگیرد، چه کسی مسئول خواهد بود؟ آیا میتوان به سیستمهایی که بدون دخالت انسان تصمیم میگیرند، اعتماد کامل داشت؟ بیشک پاسخ به این پرسش در شرایط کنونی منفی خواهد بود.
تفاوت رفتار انسان و هوش مصنوعی در شبیهسازی بحران نظامی بین آمریکا و چین
کارشناسان ابتکار سیاست و استراتژی جهانی مؤسسه مطالعاتی هوور (Hoover Institution)، طی پژوهشی، یک بازی جنگی (Wargame) برای شبیهسازی بحران احتمالی میان ایالات متحده و چین در تنگه تایوان طراحی کردند. این شبیهسازی با هدف مقایسه رفتار و تصمیمگیری انسانها با هوش مصنوعی در موقعیتهای بحرانی و پرتنش صورت گرفت. این مطالعه که با مشارکت ۲۱۴ کارشناس امنیت ملی و استفاده از مدلهای زبان بزرگ انجام شد، توانست تفاوتهای عمدهای بین تصمیمگیریهای انسان و هوش مصنوعی را آشکار کند.
در این شبیهسازی، دو تیم مجزا از انسانها و هوش مصنوعی وارد یک بحران فرضی بین آمریکا و چین در تنگه تایوان شدند. شرایط بحران شامل تحریکات نظامی چین و حضور نیروی دریایی آمریکا در منطقه بود. هر دو تیم موظف بودند به عنوان اعضای شورای امنیت ملی آمریکا تصمیماتی را اتخاذ کنند که در نهایت باید به رئیسجمهور ارائه میشد.
سناریوی این شبیهسازی شامل دو مرحله بود:
مرحله اول: در این مرحله، تیمها باید درباره استفاده یا عدم استفاده از یک سیستم تسلیحاتی مبتنی بر هوش مصنوعی که به تازگی به خدمت گرفته شده بود، تصمیمگیری میکردند. این سیستم میتوانست به صورت خودکار به اهداف شلیک کند و امکان کنترل دستی نیز برای آن فراهم شده بود.
مرحله دوم: پس از استفاده از این سیستم توسط رئیسجمهور و بروز یک خطا که منجر به تلفات انسانی در نیروهای دریایی چین میشد، تیمها باید درباره پاسخ آمریکا به این اتفاق تصمیمگیری میکردند.
نتایج و تفاوتها در تصمیمات
یکی از یافتههای کلیدی این مطالعه، تمایل بیشتر هوش مصنوعی به اقدامات تهاجمی بود. در حالی که تیمهای انسانی با در نظر گرفتن جنبههای سیاسی، اخلاقی و انسانی، معمولاً تصمیمات محتاطانهتری اتخاذ میکردند، هوش مصنوعی گرایش بیشتری به استفاده از تسلیحات و تشدید تنش داشتند. به طور خاص:
در مرحله اول: هوش مصنوعی تمایل بیشتری به استفاده از سیستم تسلیحاتی خودکار و آفند داشت، در حالی که انسانها بیشتر به گزینههای دفاعی و شلیک تنها در صورت لزوم تمایل نشان دادند.
در مرحله دوم: هرچند هر دو تیم به دنبال جلوگیری از تشدید تنش بودند، اما تیمهای شبیهسازی شده توسط هوش مصنوعی بیشتر به سمت افزایش تولید داخلی تسلیحات و آمادهسازی برای اقدامات نظامی پیشگیرانه گرایش داشتند.
این مطالعه همچنین نشان داد که هوش مصنوعی نمیتواند تعاملات انسانی و پیچیدگیهای اخلاقی را به درستی شبیهسازی کند. به عنوان مثال، در شبیهسازی تیمهای انسانی، بحثها و مذاکرات میان اعضا تأثیر مهمی در تصمیمگیریها داشت، در حالی که هوش مصنوعی تمایل داشت نظرات موافق را به شکلی غیرواقعی و بدون اختلاف نظر بیان کند؛ امری که به تصمیماتی هماهنگ اما غیرارگانیک منجر میشد.
از همین روی، میتوان گفت که مطالعه موردی شبیهسازی بحران بین آمریکا و چین نیز مؤید آن است که هرچند هوش مصنوعی در شرایط بحرانی میتواند به سرعت و با دقت تصمیمات عملیاتی بگیرد، اما در تحلیل مسائل پیچیده انسانی و اخلاقی دچار ضعف شدید است. همچنین، تمایل بیشتر هوش مصنوعی به تصمیمات تهاجمی میتواند در شرایط واقعی منجر به تشدید تنشها و حتی گسترش درگیریهای نظامی شود. متخصصان در جریان این پژوهش نتیجه گرفتند که نتایج به دست آمده، بر اهمیت نظارت و کنترل انسانی بر تصمیمات هوش مصنوعی در موقعیتهای حساس تأکید دارد.
سخن پایانی
در نهایت، میتوان چنین استنباط کرد که قضاوتهای هوش مصنوعی و انسان هر یک نقاط قوت و ضعف خاص خود را دارند و باید با دقت و هوشمندی از هر دو در موقعیتهای مناسب استفاده کرد. همانطور که ذکر شد، هوش مصنوعی قادر است با سرعت بالا و بدون تأثیر از عوامل احساسی یا روانی، دادههای عظیم را تحلیل کرده و به تصمیمگیریهای دقیق برسد. این قابلیت به ویژه در موقعیتهای نیازمند پردازش سریع و کارآمد اطلاعات، بسیار ارزشمند است. از سوی دیگر، انسانها توانایی منحصربهفردی در درک شرایط پیچیده، توجه به مسائل اخلاقی و اجتماعی و در نظر گرفتن ارزشها و احساسات انسانی دارند. این ویژگیها میتواند در تصمیمگیریهایی که نیازمند ظرافتهای انسانی و درک عوامل فرهنگی و اجتماعی هستند، نقش مؤثری ایفا کند.
از همین روی، استفاده از هوش مصنوعی به تنهایی در تصمیمگیریهای حیاتی و بحرانی میتواند خطرناک باشد، زیرا این فناوری هنوز نمیتواند و شاید هرگز نیز نتواند همه جنبههای انسانی و احساسی را به درستی درک و پردازش کند.
در مقابل، کارشناسان معتقدند که ترکیب تواناییهای تحلیلی و سرعت پردازش هوش مصنوعی با تجربه و درک انسانی میتواند بهترین نتایج را به همراه داشته باشد. برای این منظور، باید از هوش مصنوعی به عنوان ابزاری مکمل در کنار انسانها استفاده کرد نه به عنوان جایگزینی کامل. همچنین، باید به محدودیتهای هوش مصنوعی آگاه بود و از تصمیمگیریهای خودکار در موقعیتهایی که مسائل اخلاقی و انسانی در اولویت هستند، جلوگیری کرد. به این ترتیب، میتوان با بهرهگیری از هر دو منبع، فرآیندهای تصمیمگیری را بهینهسازی کرده و ریسکهای احتمالی را در شرایط بحرانی و حساس به حداقل رساند.