EN
به روز شده در
کد خبر: ۵۰۷۱۲
عضو انجمن روان‌شناسی تشریح کرد

استفاده مردم از هوش مصنوعی به‌عنوان روان‌شناس و حذف شدن بخش‌های مهمی از مغز

عضو انجمن روان‌شناسی ایران با تأکید بر اینکه هوش مصنوعی ساخته‌شده در کشورهای دیگری است و نمی‌تواند در روابط انسانی پاسخ‌گوی نیازهای فرهنگی و خانوادگی همه کشورها از جمله ایران باشد، گفت: موضوعات بین‌فرهنگی در روان‌شناسی بسیار مهم است و به‌طور مثال نمی‌توان برای فردی که در تبریز زندگی می‌کند، همان راهکار را که برای فردی در تهران داده می‌شود، ارائه کرد.

استفاده مردم از هوش مصنوعی به‌عنوان روان‌شناس و حذف شدن بخش‌های مهمی از مغز

هوش مصنوعی یا ChatGPT، ابزاری که بعضی افراد برایش اسمی دوستانه می‌گذارند و با آن درد دل می‌کنند، برخی مشکلات زناشویی یا روابط بین‌فردی خود را با آن در میان می‌گذارند و حتی عده‌ای روزشان را با «صبح‌به‌خیر» گفتن به آن آغاز و شبشان را با «شب‌به‌خیر» گفتن به آن به پایان می‌رسانند اما پرسش اساسی این است، آیا این فناوری نوظهور می‌تواند واقعاً نقش یک دوست صمیمی یا حتی مشاوری آگاه و کارآمد را در حل مسائل روانی و بین‌فردی ایفا کند؟

حسین روزبهانی، عضو انجمن روان‌شناسی، در این رابطه در گفت‌وگو با «آوش» با بیان اینکه هر تکنولوژی نوظهوری در کنار مزایایی که دارد می‌تواند معایبی هم داشته باشد و هوش مصنوعی نیز از این قاعده مستثنی نیست، افزود: این مسئله که مردم از هوش مصنوعی به‌عنوان روان‌شناس استفاده می‌کنند، می‌تواند به‌صورت فردی و غیرفردی بررسی شود.

او ادامه داد: یکی از مشکلات فردی این است که این ابزارها معمولاً در پاسخ به سؤالات افراد، جواب‌هایی نظیر «خیلی سؤال خوبی مطرح کردید»، «خیلی عالی بود» یا «چقدر سؤال دقیقی بود» ارائه می‌دهند و این موجب می‌شود فرد تصور کند هوش و توانایی‌های بالایی دارد و به‌مرور انسان‌ها را به افرادی خودشیفته تبدیل می‌کند، چون مدام در حال تأیید گرفتن است.

این روان‌شناس اظهار کرد: یکی دیگر از مشکلات فردی این است که وقتی بسیاری از سؤالات را از هوش مصنوعی می‌پرسیم، از برخی قسمت‌های مغز خود استفاده نمی‌کنیم و در بسیاری زمینه‌ها تحلیل، بررسی و تصمیم‌گیری انجام نمی‌دهیم. این مسئله موجب حذف شدن بخش‌های مهمی از مغز می‌شود.

 عضو انجمن روان‌شناسی ادامه داد: مشابه این اتفاق در استفاده از برنامه‌هایی مثل بلد، نشان و ویز رخ داد و قسمت موقعیت‌سنجی و موقعیت‌یابی مغز ما حذف شد؛ تا حدی که در دوران جنگ دوازده‌روزه که جی‌پی‌اس‌ها قطع شد، افراد در پیدا کردن آدرس‌های ساده نیز مشکل پیدا کردند بنابراین با حذف قسمت‌های عالی مغز امکان تحلیل و حل مسئله از بین می‌رود که می‌تواند آسیب‌زا باشد.

روزبهانی بااشاره به اینکه در زمینه بررسی مشکلات فردی مثل افسردگی و اضطراب و... در روان‌شناسی مواردی با عنوان «نشانه» و «علائم» داریم، گفت: نشانه چیزهایی است که روان‌شناس می‌بیند، مثل کبودی روی صورت یا غم چهره و... علائم، مسائلی است که دیده نمی‌شود. وقتی فرد به روان‌شناس مراجعه می‌کند، پزشک نشانه و علائم را با هم در نظر می‌گیرد. اما برای هوش مصنوعی بررسی نشانه‌ها غیرممکن است و این می‌تواند موجب تشخیص اشتباه و آسیب شود.

این روان‌شناس افزود: استفاده از مشورت روان‌شناسی در زمینه روابط بین‌فردی نیز مشکلاتی را به دنبال دارد چراکه معمولاً در تراپی‌های زوجین باید حتماً حرف دو طرف رابطه شنیده تا راهکار درست ارائه شود. زیرا هر فرد براساس دیدگاه شخصی خود مسائل رابطه را مطرح می‌کند و مشاوره یک‌طرفه نمی‌تواند راهکار درستی برای حل مشکل باشد. بنابراین استفاده از چت‌جی‌پی‌تی در این زمینه نیز قطعاً آسیب‌زا است.

او ادامه داد: حتی خود سازندگان هوش مصنوعی‌هایی نظیر ChatGPT اذعان می‌دارند که این برنامه هنوز دارای کاستی‌ها و اشکالات ساختاری است و نیاز به اصلاح دارد بنابراین نمی‌تواند منبع مطمئن و کافی‌ برای دریافت اطلاعات کامل و دقیق باشد.

روزبهانی با بیان اینکه در برخی موارد مشاهده شده که در جست‌وجوهای تکراری در موضوع مشخص و ثابت، ChatGPT پاسخ‌های متفاوت می‌دهد که نشان‌دهنده پاسخ‌های اشتباه است، گفت: در مواردی مثل رفتار انسان که بسیار پیچیده بوده و هنوز شبه‌پارادایم است و تبدیل به علم و پارادایم نشده و پیچیدگی‌های خاص خود را دارد، این ابزارها نمی‌توانند قابل اعتماد باشند.

او افزود: در بیماری‌ها و مشکلات روانی در بیشتر موارد رویکردهای درمانی مختلفی وجود دارد و حتی در برخی اختلالات روانی چندین دسته دارویی مختلف تجویز می‌شود، درحالی‌که در درمان بیماری‌های جسمی داروهای ثابت و مشخصی وجود دارد و این، به دلیل پیچیده بودن روان انسان است. با وجود این پیچیدگی‌ها حداقل در حال حاضر پلتفرم هوش مصنوعی ابزار مورد اعتمادی برای دریافت راهکارهای روان‌شناسی نیست.

این عضو هیات علمی دانشگاه اظهار کرد: آزمون‌های روانی که در کشورهای دیگر ساخته شده‌اند باید داخل کشور و بر اساس هنجاریابی و جامعه آماری کشور استانداردسازی شوند و با جامعه آماری مطابقت داشته باشند، در غیر این صورت روایی و پایایی این آزمون‌ها تأیید نمی‌شود.

او ادامه داد: نمی‌توان آزمونی را که مناسب جامعه آمریکا و آلمان ساخته شده، بدون استانداردسازی در کشور دیگر استفاده کرد چراکه مطابقت درستی با جامعه ندارند و امکان پاسخ اشتباه زیاد است. ضمن اینکه در موارد زیادی آزمون‌ها به همراهی نظر متخصص نیاز دارند و کمکی هستند؛ یعنی ابتدا ارزیابی بالینی توسط تراپیست انجام می‌شود و آزمون به جمع‌بندی و اظهارنظر او کمک می‌کند، نه اینکه معیار باشد.

این روان‌شناس گفت: ممکن است افراد براساس نتیجه این آزمون‌ها خود را مبتلا به یک اختلال روانی نظیر دوقطبی، پارانویا یا افسردگی بدانند و روحیه خود را از دست بدهند و عواقب بدی به سراغ آن‌ها بیاید درحالی‌که معمولاً روان‌شناسان و روان‌پزشکان بدون آگاه کردن فرد از نتیجه تست و بعد از ارزیابی دقیق همه داده‌ها و مشاهدات پزشکی نتیجه‌گیری قطعی انجام می‌دهند.

 عضو انجمن روان‌شناسی ایران با تأکید بر اینکه هوش مصنوعی ساخته‌شده در کشورهای دیگری است و نمی‌تواند در روابط انسانی پاسخ‌گوی نیازهای فرهنگی و خانوادگی همه کشورها از جمله ایران باشد، افزود: موضوعات بین‌فرهنگی در روان‌شناسی بسیار مهم است و به‌طور مثال نمی‌توان برای فردی که در تبریز زندگی می‌کند، همان راهکار را که برای فردی در تهران داده می‌شود، ارائه کرد.

وی ادامه داد: هر فردی در هر شهری با رعایت سنت‌ها و آداب و فرهنگ مختلفی زندگی می‌کند. به طریق اولی این مسئله در مسائل روان‌شناسی بین کشورها و تفاوت‌های فرهنگی در درمان‌های روان‌شناسی پررنگ‌تر نمود پیدا می‌کند.

روزبهانی اظهار کرد: رویکرد هوش مصنوعی در پاسخ به مشکلات افراد رویکرد تأییدی است و بیشتر نظرات افراد را تأیید می‌کند و این مسئله می‌تواند موجب بروز و ظهور رفتارهای خطرناک و اشتباه از سوی افرادی شود که تصمیمات اشتباه خود را با این پلتفرم در میان گذاشته‌اند.

او در پایان تأکید کرد: هر تکنولوژی محاسن خاص خود را دارد و نمی‌توان آن را حذف کرد اما باید از این ابزار به‌عنوان عاملی در کنار اطلاعات، منابع و امکانات دیگر استفاده کرد. استفاده از مقالات روان‌شناسی، کتاب‌ها و نظرات تخصصی در کنار هوش مصنوعی لازم است و نباید هوش مصنوعی و ابزارهایی نظیر ChatGPT تبدیل به معیار شوند زیرا استفاده اشتباه و احساسی از این ابزارها می‌تواند موجب آسیب‌های جبران‌ناپذیر شود.

ارسال نظر

آخرین اخبار