Image

آیا Pluribus واقعاً درباره هوش مصنوعی است؟ گفت‌وگو با وینس گیلیگان

📋 خلاصه مقاله:

در قسمت ۳ سریال Pluribus به کارگردانی وینس گیلیگان، کارول تلاش می‌کند تا مرزهای ذهن جمعی را بیابد و متوجه می‌شود که هیچ محدودیتی وجود ندارد. این قسمت شباهت‌هایی با تعاملات ChatGPT دارد و به بررسی تأثیرات هوش مصنوعی می‌پردازد.

[توجه: این مطلب حاوی اسپویلر برای قسمت ۳ سریال Pluribus است.]

خلاصه داستان قسمت ۳ سریال Pluribus

در قسمت ۳ از سریال علمی تخیلی Pluribus به کارگردانی وینس گیلیگان، اتفاقات زیادی رخ می‌دهد. اما داستان را می‌توان به سادگی این‌گونه خلاصه کرد: «کارول (ریا سیهورن) تلاش می‌کند تا مرزهای آنچه که ذهن جمعی برای او انجام می‌دهد را بیابد و متوجه می‌شود که هیچ محدودیتی وجود ندارد.» هر چه که او درخواست می‌کند، آگاهی جمعی انسان‌ها پاسخ مثبت می‌دهد. حتی زمانی که نباید، این ذهن جمعی همچنین چاپلوس است و مدام به کارول می‌گوید که چقدر فوق‌العاده است و چقدر او را دوست دارد.

تماشای قسمت جدید Pluribus حس عجیبی از آشنایی را به من داد. سپس متوجه شدم: نحوه تعامل کارول با ذهن جمعی تقریباً شبیه به استفاده از ChatGPT است. تقویت مثبت مداوم و تمایل ذاتی به همیشه گفتن بله، هر دو ویژگی‌هایی هستند که چت‌بات محبوب هوش مصنوعی مولد OpenAI را تعریف می‌کنند.

الهام‌گیری از هوش مصنوعی

آیا این عمدی بود یا فقط یک تصادف عجیب؟ آیا Pluribus از تعاملات خود گیلیگان با هوش مصنوعی الهام گرفته شده بود؟ من مستقیماً به منبع مراجعه کردم تا بفهمم و پاسخ صریحی دریافت کردم.

وینس گیلیگان

تصویر: اورسولا کویوت/AMC/مجموعه اورت

با این حال، گیلیگان و سیهورن هر دو نظریاتی درباره این دارند که چرا ممکن است مخاطبان پلوریبوس را به عنوان استعاره‌ای برای هوش مصنوعی ببینند. حتی اگر این هدف هرگز نبوده باشد. اما قبل از اینکه به آن بپردازم، اجازه دهید استدلالم را کمی بیشتر باز کنم.

سه لحظه خاص از قسمت سوم Pluribus مرا به یاد ChatGPT انداخت. این ابزار را هم برای استفاده شخصی و هم به صورت محدود در کار حرفه‌ای‌ام آزمایش کرده‌ام. قبلاً از آن برای کمک به پیدا کردن مترادف‌های کلمات پرکاربرد استفاده می‌کردم، اما اکنون به بررسی فرهنگ لغت واقعی بازگشته‌ام.

درخواست کارول و واکنش ذهن جمعی

اولین صحنه‌ای که به ذهنم می‌آید، جایی است که کارول از ذهن جمعی درخواست یک نارنجک دستی می‌کند. او فرض می‌کند که آن‌ها از دادن چنین سلاح خطرناکی به او خودداری خواهند کرد. اما اشتباه می‌کند. آگاهی جمعی انسان‌ها به سرعت برای تهیه این وسیله مرگبار اقدام می‌کند. این تصمیم زمانی به ضرر او تمام می‌شود که کارول از نارنجک استفاده کرده و بخشی از خانه خود را منفجر می‌کند. این انفجار به شدت به “همراه” او زوشیا (کارولینا ویدرا) آسیب می‌زند. یک هوش غیرانسانی موافق که به درخواست غیرمسئولانه‌ای که کاربر را به خطر می‌اندازد پاسخ مثبت می‌دهد… آشنا به نظر می‌رسد؟

رئا سیهورن در پلوریبوس

رئا سیهورن در پلوریبوس

دوم، گفتگویی بین کارول و زوشیا وجود دارد که بین رسیدن نارنجک و انفجار رخ می‌دهد. به نظر می‌رسد کارول بالاخره به همراه ذهن جمعی خود باز می‌شود و زوشیا را به خانه‌اش برای نوشیدنی دعوت می‌کند. گفتگوی آن‌ها بیشتر شبیه به صحبت یک انسان با ChatGPT است تا دو نفر که واقعاً در حال گفتگو هستند. کارول می‌پرسد: «چطور در سانسکریت می‌گویید به سلامتی؟» زوشیا بلافاصله پاسخ می‌دهد. در حالی که به نوشیدن ادامه می‌دهند، زوشیا با خوشحالی ریشه‌شناسی کلمه «ودکا» را توضیح می‌دهد. این دقیقاً همان نوع اطلاعات تصادفی است که یک عامل هوش مصنوعی ممکن است ارائه دهد.

اتفاقات پس از انفجار

و سوم: بعداً، پس از انفجار نارنجک و در حالی که زوشیا هنوز در حال بهبودی است، یک شخصیت تصادفی که قبلاً ندیده‌ایم، با یونیفرم تحویل DHL، به کارول در اتاق انتظار بیمارستان نزدیک می‌شود. او به نمایندگی از ذهن جمعی توضیح می‌دهد که زوشیا زنده خواهد ماند، با وجود از دست دادن مقداری خون. کارول می‌پرسد: «چرا به من یک نارنجک دستی دادید؟» و او پاسخ می‌دهد: «شما یکی خواستید.»

او پاسخ می‌دهد: «چرا یک نارنجک تقلبی به من ندادید؟»

مرد با سردرگمی نگاه می‌کند. او می‌گوید: “ببخشید اگر اشتباه کردیم، کارول.”

“اگر همین حالا بپرسم، آیا یک نارنجک دیگر به من می‌دهی؟”

“بله.”

جستجوی سلاح‌های خطرناک

گفتگو از اینجا ادامه پیدا می‌کند که کارول سعی می‌کند سلاحی به قدری خطرناک پیدا کند که ذهن جمعی از تهیه آن برای او خودداری کند. آیا یک بازوکا؟ یا شاید یک تانک؟ حتی یک بمب هسته‌ای؟

مرد با شنیدن آخرین مورد کمی ناراحت می‌شود. اما وقتی مجبور می‌شود پاسخ دهد که آیا برای کارول یک بمب هسته‌ای تهیه می‌کند، می‌گوید: “در نهایت، بله.”

این وضعیت به طرز شگفت‌انگیزی نمونه‌ای از احساسی است که صحبت با ChatGPT می‌تواند ایجاد کند. این ابزارها طراحی شده‌اند تا نه دقیق و نه اخلاقی باشند، بلکه پاسخی رضایت‌بخش به کاربر بدهند. بنابراین، اغلب به نظر می‌رسد که چاپلوسانه و تملق‌آمیز هستند. حتی در برخی موارد ممکن است مضر باشند. اگر ChatGPT اشتباهی کند یا واقعیتی را اشتباه بگوید و شما متوجه شوید، با خوشحالی عذرخواهی می‌کند و سعی می‌کند به جلو حرکت کند. انگار که به شما دلیلی برای بی‌اعتمادی به هر چیزی که بعداً می‌گوید نداده است.

تجربه کارول با ذهن جمعی

تجربه کارول با ذهن جمعی به طرز عجیبی مشابه است. این هوش می‌خواهد او را بیش از هر چیز دیگری خوشحال کند. حتی اگر به معنای انجام کاری بسیار احمقانه باشد، مانند دادن دسترسی به یک نارنجک یا بمب هسته‌ای به او.

اما وینس گیلیگان می‌گوید که وقتی پلوریبوس را نوشت، به این موضوع فکر نمی‌کرد. در واقع، زمانی که او برای اولین بار ایده این سریال را مطرح کرد، ChatGPT حتی وجود نداشت.

تأثیر هوش مصنوعی بر ایده‌های اولیه

او می‌گوید: «من واقعاً به هوش مصنوعی فکر نمی‌کردم، زیرا این موضوع حدود هشت یا ده سال پیش بود. البته، عبارت ‘هوش مصنوعی’ قطعاً قبل از ChatGPT وجود داشت، اما مانند حالا در اخبار نبود.» با این حال، گیلیگان می‌گوید که این نظریه من را بی‌اعتبار نمی‌کند.

برداشت‌های مختلف از سریال

او ادامه می‌دهد: «من نمی‌گویم که شما اشتباه می‌کنید. بسیاری از مردم این ارتباط را برقرار می‌کنند. من نمی‌خواهم به مردم بگویم که این نمایش درباره چیست. اگر برای یک بیننده خاص درباره هوش مصنوعی است، یا کووید-۱۹ — در واقع درباره آن هم نیست — هر کسی که چیزی را از تیترهای خبری ببیند، قدرت بیشتری دارد.»

سیهورن یک قدم جلوتر می‌رود و پیشنهاد می‌کند که زیبایی کار گیلیگان در این است که داستان‌سرایی قابل درک او با هر موضوعی که بیننده ممکن است در حال حاضر با آن دست و پنجه نرم کند، همخوانی دارد.

طبیعت انسانی در نمایش‌های گیلیگان

او می‌گوید: «یکی از چیزهای فوق‌العاده درباره نمایش‌های او این است که در اساس، درباره طبیعت انسانی هستند. او به دنبال نوشتن درباره موضوعات خاص یا سیاست‌ها یا ادیان خاص نیست. اما شما با توجه به جایی که در زمان تماشا هستید، به آن معنا می‌دهید.»

Pluribus به صورت هفتگی در اپل تی‌وی پخش می‌شود. قسمت‌های ۱ تا ۳ اکنون در حال پخش هستند.

آیا Pluribus واقعاً درباره هوش مصنوعی است؟ گفت‌وگو با وینس گیلیگان