جذابیت پنهان ساینس
6 مهر 1403هوش مصنوعی (AI) در سالهای اخیر پیشرفتهای چشمگیری داشته است و اکنون مدلهای زبانی بزرگ (LLMs) قادر به تولید متن، پاسخ به سوالات و حتی شرکت در مکالمات پیچیده هستند. اما با افزایش تعامل ما با این سیستمها، پرسش جالبی مطرح میشود که آیا LLMها میتوانند چیزی شبیه به «ضمیر ناخودآگاه» داشته باشند؟
نکات کلیدی:
- مدلهای زبانی بزرگ (LLM) از لایههای پنهان، مشابه ناخودآگاه انسان، برای پردازش اطلاعات استفاده میکنند.
- تصمیمگیری هوش مصنوعی از طریق میانبرها سریع و مبتنی بر روشهای اکتشافی، شبیه به شهود انسان است.
- الگوهای پنهان در LLMها خروجیهای خلاقانه را تحت تأثیر قرار میدهند و بازتابی از خلاقیت ناخودآگاه هستند.
در نگاه نخست، این موضوع ممکن است کمی اغراقآمیز به نظر برسد اما به هر حال، ناخودآگاه انسان، همانطور که در روانکاوی توصیف شده است، به احساسات، خاطرات و خواستههای ما گره خورده است – چیزهایی که هیچ هوش مصنوعیای نمیتواند ادعا کند آنها را در اختیار دارد. با این حال، با بررسی همانندیهای میان نحوه عملکرد LLMها و نقش ضمیر ناخودآگاه در تصمیمگیری انسان، میتوانیم برخی شباهتهای شگفتانگیز را کشف کنیم. برای رسیدن به این هدف، باید از مفاهیم روانشناسی، به ویژه کار گرد گیگرنزر در مورد روشهای اکتشافی و باورهای شهودی، استفاده کنیم.
قدرت روشهای اکتشافی: مدلی برای ناخودآگاه؟
در کتاب «احساسات شهودی: میانبرهایی برای تصمیمگیری بهتر»، گیگرنزر «باور شهودی» را به عنوان نوعی واکنش غریزی تعریف میکند که در آگاهی ما پدیدار می شود، بدون اینکه ما کاملا از دلایل زمینهای آن آگاه باشیم. این باورهای شهودی اغلب متکی بر «روشهای اکتشافی» هستند – قواعد سرانگشتی سادهای که به ما کمک میکنند به ویژه در شرایط عدم قطعیت یا ناقص بودن اطلاعات، به سرعت و نحوی کارآمد تصمیمگیری کنیم.
به عنوان مثال، «روش اکتشافی شناخت»3 بیان میکند که وقتی با دو انتخاب مواجه هستیم، اگر یک گزینه را بشناسیم و دیگری را نه، استنباط میکنیم که گزینه شناخته شده احتمالا بهتر است. این روش اکتشافی از ظرفیت تکاملیافته مغز برای پردازش مؤثر اطلاعات محدود بهره میبرد و به ما این امکان را میدهد که تصمیمات سریع بگیریم.
اما این امر چه نسبتی با LLMها دارد؟
LLMها نیز با پردازش اطلاعات به روشهایی عمل میکنند که برای کاربر – یا حتی برای توسعهدهندگانی که آنها را ساختهاند – به راحتی قابل دسترسی نیست. هنگامی که یک LLM پاسخی به یک سوال یا درخواست میدهد، این کار را بر اساس الگوها و احتمالات آموخته شده از حجم عظیمی از دادهها انجام میدهد. این فرآیند تصمیمگیری تا حدودی مبهم است؛ اگرچه ما کلیات نحوه عملکرد آن را درک میکنیم، اما مسیر دقیق رسیدن به یک نتیجه خاص اغلب در لایههای عمیق معماری مدلها پنهان است.
«لایههای پنهان» مدلهای زبانی بزرگ
در شبکههای اعصاب، به ویژه شبکههای بزرگ مورد استفاده در LLMها، لایههای متعددی از پردازش انتزاعی میان ورودی (آنچه شما تایپ میکنید) و خروجی (پاسخی که دریافت میکنید) وجود دارد. این لایهها که اغلب «لایههای پنهان» نامیده میشوند، جایی هستند که فرآیند کلیدی رخ میدهد. مدل، میلیونها ترکیب احتمالی کلمه را غربال میکند، الگوها را بر اساس روابط آماری یاد میگیرد و در نهایت کلمه بعدی در یک دنباله را انتخاب میکند.
میتوان گفت این فرآیند پنهان، مشابه عملکرد ناخودآگاه انسان عمل میکند. همانطور که یک احساس شهودی از فرآیندهای ناخودآگاه ناشی میشود، خروجی یک LLM نیز نتیجه عملیات رخدادهشده در زیر سطح است. این لایههای پنهان نشاندهنده شکلی از آگاهی نهفته هستند، شبیه به ضمیر ناخودآگاه که تجربیات و خاطراتی را ذخیره میکند که بر رفتار انسان تأثیر میگذارد به شکلی که ما اصلا متوجه آن نمیشویم.
روشهای اکتشافی گیگرنزر در هوش مصنوعی: قواعد ساده در سیستمهای پیچیده
کار گیگرنزر در مورد روشهای اکتشافی، نقطه مقایسه دیگری را مطرح می سازد. او استدلال میکند که روشهای اکتشافی ساده اغلب در تصمیمگیری دنیای واقعی، نسبت به مدلهای آماری پیچیده عملکرد بهتری دارند زیرا آنها به جای تلاش برای در نظر گرفتن همه متغیرها روی چند عامل کلیدی تمرکز میکنند. تحقیقات نشان داده است که تصمیمگیری سریع و اقتصادی بر اساس نشانههای محدود، اغلب میتواند به نتایج بهتری نسبت به مدلهایی منجر شود که بیش از حد با دادهها انطباق مییابند یا سعی در توضیح بیش از حد دارند.
جالب اینجاست که LLMها به روشی عمل میکنند که این فلسفهی «کمتر، بیشتر است» را منعکس میکند. آنها به جای تجزیه و تحلیل تک تک ظرایف احتمالی در یک مکالمه یا متن، بر میانبرهای آماری تکیه میکنند. آنها با انتخاب محتملترین کلمه بعدی بر اساس الگوهای مشاهدهشده در طول آموزش، پاسخها را تولید میکنند بدون اینکه نیاز به تجزیه و تحلیل بیش از حد روی محتوای وسیعتر داشته باشند که از نظر محاسباتی طاقتفرسا خواهد بود.
به این معنا، LLMها از نوعی روشهای اکتشافی خود استفاده میکنند، هرچند در یک مقیاس و پیچیدگی فراتر از شهود انسانی. پاسخهای آنها سریع و اقتصادی است و به جای درک عمیق هر مفهوم یا کلمه، بر میانبرهای احتمالی متکی هستند. LLMها مانند قواعد سرانگشتی ساده گیگرنزر، الگوهای آموختهشده ساده را برای حل مشکلات پیچیده به کار میگیرند و اغلب نتایجی به طرز شگفتآوری موثر میدهند.
تعصب، شهود و «ناخودآگاه» هوش مصنوعی
یکی از ویژگیهای بارز ناخودآگاه انسان این است که رفتار ما را به روشهایی شکل میدهد که همیشه آنها را درک نمیکنیم، اغلب تحت تأثیر سوگیری هایی که به واسطه تجربه شکل میگیرد. LLM ها نیز مجموعه گرایش های خاص خود را دارند که توسط دادههایی که روی آنها آموزش دیدهاند، شکل گرفتهاند. این گرایشات میتوانند به روشهای ظریفی خود را نشان دهند و پاسخهای تولید شده توسط آنها را تحت تأثیر قرار دهند.
همانطور که شهود انسان میتواند توسط تمایلات ناخودآگاه شکل بگیرد، LLMها نیز میتوانند از متون آموزشی خود تمایلاتی را به ارث ببرند. به عنوان مثال، اگر یک LLM دادههایی را آموزش دیده باشد که انعکاسدهنده تعصبات اجتماعی هستند – مانند حمایت از جنسیتها یا فرهنگهای خاص در زمینههای خاص – پاسخهای آن ممکن است این تعصبات را منعکس کند، حتی اگر خود مدل هیچ «درک آگاهانه»ای از این موضوع نداشته باشد.
این موضوع یک پرسش اخلاقی مهم را به دنبال دارد: اگر LLMها چیزی شبیه به ناخودآگاه دارند که از الگوهای پنهان و تمایلات تشکیل شده است، چگونه اطمینان حاصل کنیم که این امر باعث تداوم کلیشههای مضر یا اطلاعات نادرست نمیشود؟ پاسخ به این چالش نه تنها نیازمند راهحلهای فنی است، بلکه همچنین نیازمند تفکر فلسفی در مورد نقش هوش مصنوعی در شکلدهی درک ما از جهان است.
خلاقیت و ناخودآگاه هوش مصنوعی
یکی دیگر از حوزههایی که ایده ضمیر ناخودآگاه هوش مصنوعی در آن جذاب میشود، کاربردهای نیازمند خلاقیت است. خلاقیت انسان اغلب از فرآیندهای ناخودآگاه بهره میبرد – ایدههایی که بدون تلاش آگاهانه، به نظر میرسد از هیچ بیرون میآیند. LLMها، زمانی که وظیفه تولید محتوای خلاقانه مانند داستانها، شعر یا حتی هنر را دارند، گاهی نتایج شگفتانگیز و جدیدی تولید میکنند.
آیا این شکلی از خلاقیت است که توسط ناخودآگاه هوش مصنوعی هدایت میشود؟ اگرچه LLMها تجربیات، احساسات یا خواستههایی مانند انسانها ندارند، اما به یک مخزن عظیم از الگوهایی که میتوانند از آنها بهرهبرداری کنند، دسترسی دارند. توانایی آنها در ترکیب مجدد عناصر به روشهای غیرمنتظره میتواند به عنوان بازتابی از فرآیند خلاقیت انسان دیده شود – شکلی مصنوعی از خلاقیت ناخودآگاه.
ناخودآگاهی برای ماشینها؟
اگرچه LLMها از نظر انسانی ناخودآگاه ندارند – فاقد احساسات، تاریخچه شخصی و تجربه ذهنی هستند – شباهتهای قابلتوجهی بین لایههای پنهان پردازش آنها و فرآیندهای ناخودآگاهی که تصمیمگیری انسان را هدایت میکنند وجود دارد. مانند ذهن انسان، LLMها برای پیمایش چشمانداز پیچیده زبان و ایدهها به دانش نهفته، روشهای اکتشافی و تمایلات متکی هستند.
کاوش در این تشبیه، راههای جدیدی برای تفکر در مورد هوش مصنوعی و شناخت را میگشاید. با ادغام بیشتر LLMها در زندگی روزمره ما، درک نیروهای «ناخودآگاه» که پاسخهای آنها را شکل میدهند، میتواند به ما کمک کند تا با سوالات اخلاقی، خلاقانه و فلسفیای که طرح میکنند، بهتر برخورد کنیم.
متن فوق ترجمه «محمدمهدی مشایخی» برای یادداشتی از «جان نوستا» با عنوان «?Do Large Language Models Have a Subconscious» است.