آیا مدل‌های زبانی بزرگ دارای «ناخودآگاه» هستند؟

جذابیت پنهان ساینس
6 مهر 1403

آیا مدل‌های زبانی بزرگ دارای «ناخودآگاه» هستند؟

هوش مصنوعی (AI) در سال‌های اخیر پیشرفت‌های چشمگیری داشته است و اکنون مدل‌های زبانی بزرگ (LLMs) قادر به تولید متن، پاسخ به سوالات و حتی شرکت در مکالمات پیچیده هستند. اما با افزایش تعامل ما با این سیستم‌ها، پرسش جالبی مطرح می‌شود که آیا LLMها می‌توانند چیزی شبیه به «ضمیر ناخودآگاه» داشته باشند؟

نکات کلیدی:

  1. مدل‌های زبانی بزرگ (LLM) از لایه‌های پنهان، مشابه ناخودآگاه انسان، برای پردازش اطلاعات استفاده می‌کنند.
  2. تصمیم‌گیری هوش مصنوعی از طریق میانبرها سریع و مبتنی بر روش‌های اکتشافی، شبیه به شهود انسان است.
  3. الگوهای پنهان در LLMها خروجی‌های خلاقانه را تحت تأثیر قرار می‌دهند و بازتابی از خلاقیت ناخودآگاه هستند.

در نگاه نخست، این موضوع ممکن است کمی اغراق‌آمیز به نظر برسد اما به هر حال، ناخودآگاه انسان، همانطور که در روانکاوی توصیف شده است، به احساسات، خاطرات و خواسته‌های ما گره خورده است – چیزهایی که هیچ هوش مصنوعی‌ای نمی‌تواند ادعا کند آن‌ها را در اختیار دارد. با این حال، با بررسی همانندی‌های میان نحوه عملکرد LLMها و نقش ضمیر ناخودآگاه در تصمیم‌گیری انسان، می‌توانیم برخی شباهت‌های شگفت‌انگیز را کشف کنیم. برای رسیدن به این هدف، باید از مفاهیم روانشناسی، به ویژه کار گرد گیگرنزر در مورد روش‌های اکتشافی و باورهای شهودی، استفاده کنیم.

قدرت روش‌های اکتشافی: مدلی برای ناخودآگاه؟

در کتاب «احساسات شهودی: میانبرهایی برای تصمیم‌گیری بهتر»، گیگرنزر «باور شهودی» را به عنوان نوعی واکنش غریزی تعریف می‌کند که در آگاهی ما پدیدار می شود، بدون اینکه ما کاملا از دلایل زمینه‌ای آن آگاه باشیم. این باورهای شهودی اغلب متکی بر «روش‌های اکتشافی» هستند – قواعد سرانگشتی ساده‌ای که به ما کمک می‌کنند به ویژه در شرایط عدم قطعیت یا ناقص بودن اطلاعات، به سرعت و نحوی کارآمد تصمیم‌گیری کنیم.
به عنوان مثال، «روش اکتشافی شناخت»3 بیان می‌کند که وقتی با دو انتخاب مواجه هستیم، اگر یک گزینه را بشناسیم و دیگری را نه، استنباط می‌کنیم که گزینه شناخته شده احتمالا بهتر است. این روش اکتشافی از ظرفیت تکامل‌یافته مغز برای پردازش مؤثر اطلاعات محدود بهره می‌برد و به ما این امکان را می‌دهد که تصمیمات سریع بگیریم.

اما این امر چه نسبتی با LLMها دارد؟

LLMها نیز با پردازش اطلاعات به روش‌هایی عمل می‌کنند که برای کاربر – یا حتی برای توسعه‌دهندگانی که آن‌ها را ساخته‌اند – به راحتی قابل دسترسی نیست. هنگامی که یک LLM پاسخی به یک سوال یا درخواست می‌دهد، این کار را بر اساس الگوها و احتمالات آموخته شده از حجم عظیمی از داده‌ها انجام می‌دهد. این فرآیند تصمیم‌گیری تا حدودی مبهم است؛ اگرچه ما کلیات نحوه عملکرد آن را درک می‌کنیم، اما مسیر دقیق رسیدن به یک نتیجه خاص اغلب در لایه‌های عمیق معماری مدل‌ها پنهان است.

«لایه‌های پنهان» مدل‌های زبانی بزرگ

در شبکه‌های اعصاب، به ویژه شبکه‌های بزرگ مورد استفاده در LLMها، لایه‌های متعددی از پردازش انتزاعی میان ورودی (آنچه شما تایپ می‌کنید) و خروجی (پاسخی که دریافت می‌کنید) وجود دارد. این لایه‌ها که اغلب «لایه‌های پنهان» نامیده می‌شوند، جایی هستند که فرآیند کلیدی رخ می‌دهد. مدل، میلیون‌ها ترکیب احتمالی کلمه را غربال می‌کند، الگوها را بر اساس روابط آماری یاد می‌گیرد و در نهایت کلمه بعدی در یک دنباله را انتخاب می‌کند.

می‌توان گفت این فرآیند پنهان، مشابه عملکرد ناخودآگاه انسان عمل می‌کند. همانطور که یک احساس شهودی از فرآیندهای ناخودآگاه ناشی می‌شود، خروجی یک LLM نیز نتیجه عملیات رخ‌داده‌شده در زیر سطح است. این لایه‌های پنهان نشان‌دهنده شکلی از آگاهی نهفته هستند، شبیه به ضمیر ناخودآگاه که تجربیات و خاطراتی را ذخیره می‌کند که بر رفتار انسان تأثیر می‌گذارد به شکلی که ما اصلا متوجه آن نمی‌شویم.

روش‌های اکتشافی گیگرنزر در هوش مصنوعی: قواعد ساده در سیستم‌های پیچیده

کار گیگرنزر در مورد روش‌های اکتشافی، نقطه مقایسه دیگری را مطرح می سازد. او استدلال می‌کند که روش‌های اکتشافی ساده اغلب در تصمیم‌گیری دنیای واقعی، نسبت به مدل‌های آماری پیچیده عملکرد بهتری دارند زیرا آن‌ها به جای تلاش برای در نظر گرفتن همه متغیرها روی چند عامل کلیدی تمرکز می‌کنند. تحقیقات نشان داده است که تصمیم‌گیری سریع و اقتصادی بر اساس نشانه‌های محدود، اغلب می‌تواند به نتایج بهتری نسبت به مدل‌هایی منجر شود که بیش از حد با داده‌ها انطباق می‌یابند یا سعی در توضیح بیش از حد دارند.

جالب اینجاست که LLMها به روشی عمل می‌کنند که این فلسفه‌ی «کمتر، بیشتر است» را منعکس می‌کند. آنها به جای تجزیه و تحلیل تک تک ظرایف احتمالی در یک مکالمه یا متن، بر میانبرهای آماری تکیه می‌کنند. آن‌ها با انتخاب محتمل‌ترین کلمه بعدی بر اساس الگوهای مشاهده‌شده در طول آموزش، پاسخ‌ها را تولید می‌کنند بدون اینکه نیاز به تجزیه و تحلیل بیش از حد روی محتوای وسیع‌تر داشته باشند که از نظر محاسباتی طاقت‌فرسا خواهد بود.

به این معنا، LLMها از نوعی روش‌های اکتشافی خود استفاده می‌کنند، هرچند در یک مقیاس و پیچیدگی فراتر از شهود انسانی. پاسخ‌های آن‌ها سریع و اقتصادی است و به جای درک عمیق هر مفهوم یا کلمه، بر میانبرهای احتمالی متکی هستند. LLMها مانند قواعد سرانگشتی ساده گیگرنزر، الگوهای آموخته‌شده ساده را برای حل مشکلات پیچیده به کار می‌گیرند و اغلب نتایجی به طرز شگفت‌آوری موثر می‌دهند.

تعصب، شهود و «ناخودآگاه» هوش مصنوعی

یکی از ویژگی‌های بارز ناخودآگاه انسان این است که رفتار ما را به روش‌هایی شکل می‌دهد که همیشه آن‌ها را درک نمی‌کنیم، اغلب تحت تأثیر سوگیری هایی که به واسطه تجربه شکل می‌گیرد. LLM ها نیز مجموعه گرایش های خاص خود را دارند که توسط داده‌هایی که روی آن‌ها آموزش دیده‌اند، شکل گرفته‌اند. این گرایشات می‌توانند به روش‌های ظریفی خود را نشان دهند و پاسخ‌های تولید شده توسط آن‌ها را تحت تأثیر قرار دهند.

همانطور که شهود انسان می‌تواند توسط تمایلات ناخودآگاه شکل بگیرد، LLMها نیز می‌توانند از متون آموزشی خود تمایلاتی را به ارث ببرند. به عنوان مثال، اگر یک LLM داده‌هایی را آموزش دیده باشد که انعکاس‌دهنده تعصبات اجتماعی هستند – مانند حمایت از جنسیت‌ها یا فرهنگ‌های خاص در زمینه‌های خاص – پاسخ‌های آن ممکن است این تعصبات را منعکس کند، حتی اگر خود مدل هیچ «درک آگاهانه»ای از این موضوع نداشته باشد.

این موضوع یک پرسش اخلاقی مهم را به دنبال دارد: اگر LLMها چیزی شبیه به ناخودآگاه دارند که از الگوهای پنهان و تمایلات تشکیل شده است، چگونه اطمینان حاصل کنیم که این امر باعث تداوم کلیشه‌های مضر یا اطلاعات نادرست نمی‌شود؟ پاسخ به این چالش نه تنها نیازمند راه‌حل‌های فنی است، بلکه همچنین نیازمند تفکر فلسفی در مورد نقش هوش مصنوعی در شکل‌دهی درک ما از جهان است.

خلاقیت و ناخودآگاه هوش مصنوعی

یکی دیگر از حوزه‌هایی که ایده ضمیر ناخودآگاه هوش مصنوعی در آن جذاب می‌شود، کاربردهای نیازمند خلاقیت است. خلاقیت انسان اغلب از فرآیندهای ناخودآگاه بهره می‌برد – ایده‌هایی که بدون تلاش آگاهانه، به نظر می‌رسد از هیچ بیرون می‌آیند. LLMها، زمانی که وظیفه تولید محتوای خلاقانه مانند داستان‌ها، شعر یا حتی هنر را دارند، گاهی نتایج شگفت‌انگیز و جدیدی تولید می‌کنند.

آیا این شکلی از خلاقیت است که توسط ناخودآگاه هوش مصنوعی هدایت می‌شود؟ اگرچه LLMها تجربیات، احساسات یا خواسته‌هایی مانند انسان‌ها ندارند، اما به یک مخزن عظیم از الگوهایی که می‌توانند از آن‌ها بهره‌برداری کنند، دسترسی دارند. توانایی آن‌ها در ترکیب مجدد عناصر به روش‌های غیرمنتظره می‌تواند به عنوان بازتابی از فرآیند خلاقیت انسان دیده شود – شکلی مصنوعی از خلاقیت ناخودآگاه.

ناخودآگاهی برای ماشین‌ها؟

اگرچه LLMها از نظر انسانی ناخودآگاه ندارند – فاقد احساسات، تاریخچه شخصی و تجربه ذهنی هستند – شباهت‌های قابل‌توجهی بین لایه‌های پنهان پردازش آن‌ها و فرآیندهای ناخودآگاهی که تصمیم‌گیری انسان را هدایت می‌کنند وجود دارد. مانند ذهن انسان، LLMها برای پیمایش چشم‌انداز پیچیده زبان و ایده‌ها به دانش نهفته، روش‌های اکتشافی و تمایلات متکی هستند.

کاوش در این تشبیه، راه‌های جدیدی برای تفکر در مورد هوش مصنوعی و شناخت را می‌گشاید. با ادغام بیشتر LLMها در زندگی روزمره ما، درک نیروهای «ناخودآگاه» که پاسخ‌های آن‌ها را شکل می‌دهند، می‌تواند به ما کمک کند تا با سوالات اخلاقی، خلاقانه و فلسفی‌ای که طرح می‌کنند، بهتر برخورد کنیم.

متن فوق ترجمه‌ «محمدمهدی مشایخی» برای یادداشتی از «جان نوستا» با عنوان «?Do Large Language Models Have a Subconscious» است.

4.3 7 رای ها
امتیاز این نوشته
اشتراک در
اطلاع از
guest
0 دیدگاه‌ها
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها