📋 خلاصه مقاله:
در قسمت ۳ سریال Pluribus به کارگردانی وینس گیلیگان، کارول تلاش میکند تا مرزهای ذهن جمعی را بیابد و متوجه میشود که هیچ محدودیتی وجود ندارد. این قسمت شباهتهایی با تعاملات ChatGPT دارد و به بررسی تأثیرات هوش مصنوعی میپردازد.
[توجه: این مطلب حاوی اسپویلر برای قسمت ۳ سریال Pluribus است.]
خلاصه داستان قسمت ۳ سریال Pluribus
در قسمت ۳ از سریال علمی تخیلی Pluribus به کارگردانی وینس گیلیگان، اتفاقات زیادی رخ میدهد. اما داستان را میتوان به سادگی اینگونه خلاصه کرد: «کارول (ریا سیهورن) تلاش میکند تا مرزهای آنچه که ذهن جمعی برای او انجام میدهد را بیابد و متوجه میشود که هیچ محدودیتی وجود ندارد.» هر چه که او درخواست میکند، آگاهی جمعی انسانها پاسخ مثبت میدهد. حتی زمانی که نباید، این ذهن جمعی همچنین چاپلوس است و مدام به کارول میگوید که چقدر فوقالعاده است و چقدر او را دوست دارد.
تماشای قسمت جدید Pluribus حس عجیبی از آشنایی را به من داد. سپس متوجه شدم: نحوه تعامل کارول با ذهن جمعی تقریباً شبیه به استفاده از ChatGPT است. تقویت مثبت مداوم و تمایل ذاتی به همیشه گفتن بله، هر دو ویژگیهایی هستند که چتبات محبوب هوش مصنوعی مولد OpenAI را تعریف میکنند.
الهامگیری از هوش مصنوعی
آیا این عمدی بود یا فقط یک تصادف عجیب؟ آیا Pluribus از تعاملات خود گیلیگان با هوش مصنوعی الهام گرفته شده بود؟ من مستقیماً به منبع مراجعه کردم تا بفهمم و پاسخ صریحی دریافت کردم.
تصویر: اورسولا کویوت/AMC/مجموعه اورت
با این حال، گیلیگان و سیهورن هر دو نظریاتی درباره این دارند که چرا ممکن است مخاطبان پلوریبوس را به عنوان استعارهای برای هوش مصنوعی ببینند. حتی اگر این هدف هرگز نبوده باشد. اما قبل از اینکه به آن بپردازم، اجازه دهید استدلالم را کمی بیشتر باز کنم.
سه لحظه خاص از قسمت سوم Pluribus مرا به یاد ChatGPT انداخت. این ابزار را هم برای استفاده شخصی و هم به صورت محدود در کار حرفهایام آزمایش کردهام. قبلاً از آن برای کمک به پیدا کردن مترادفهای کلمات پرکاربرد استفاده میکردم، اما اکنون به بررسی فرهنگ لغت واقعی بازگشتهام.
درخواست کارول و واکنش ذهن جمعی
اولین صحنهای که به ذهنم میآید، جایی است که کارول از ذهن جمعی درخواست یک نارنجک دستی میکند. او فرض میکند که آنها از دادن چنین سلاح خطرناکی به او خودداری خواهند کرد. اما اشتباه میکند. آگاهی جمعی انسانها به سرعت برای تهیه این وسیله مرگبار اقدام میکند. این تصمیم زمانی به ضرر او تمام میشود که کارول از نارنجک استفاده کرده و بخشی از خانه خود را منفجر میکند. این انفجار به شدت به “همراه” او زوشیا (کارولینا ویدرا) آسیب میزند. یک هوش غیرانسانی موافق که به درخواست غیرمسئولانهای که کاربر را به خطر میاندازد پاسخ مثبت میدهد… آشنا به نظر میرسد؟
رئا سیهورن در پلوریبوس
دوم، گفتگویی بین کارول و زوشیا وجود دارد که بین رسیدن نارنجک و انفجار رخ میدهد. به نظر میرسد کارول بالاخره به همراه ذهن جمعی خود باز میشود و زوشیا را به خانهاش برای نوشیدنی دعوت میکند. گفتگوی آنها بیشتر شبیه به صحبت یک انسان با ChatGPT است تا دو نفر که واقعاً در حال گفتگو هستند. کارول میپرسد: «چطور در سانسکریت میگویید به سلامتی؟» زوشیا بلافاصله پاسخ میدهد. در حالی که به نوشیدن ادامه میدهند، زوشیا با خوشحالی ریشهشناسی کلمه «ودکا» را توضیح میدهد. این دقیقاً همان نوع اطلاعات تصادفی است که یک عامل هوش مصنوعی ممکن است ارائه دهد.
اتفاقات پس از انفجار
و سوم: بعداً، پس از انفجار نارنجک و در حالی که زوشیا هنوز در حال بهبودی است، یک شخصیت تصادفی که قبلاً ندیدهایم، با یونیفرم تحویل DHL، به کارول در اتاق انتظار بیمارستان نزدیک میشود. او به نمایندگی از ذهن جمعی توضیح میدهد که زوشیا زنده خواهد ماند، با وجود از دست دادن مقداری خون. کارول میپرسد: «چرا به من یک نارنجک دستی دادید؟» و او پاسخ میدهد: «شما یکی خواستید.»
او پاسخ میدهد: «چرا یک نارنجک تقلبی به من ندادید؟»
مرد با سردرگمی نگاه میکند. او میگوید: “ببخشید اگر اشتباه کردیم، کارول.”
“اگر همین حالا بپرسم، آیا یک نارنجک دیگر به من میدهی؟”
“بله.”
جستجوی سلاحهای خطرناک
گفتگو از اینجا ادامه پیدا میکند که کارول سعی میکند سلاحی به قدری خطرناک پیدا کند که ذهن جمعی از تهیه آن برای او خودداری کند. آیا یک بازوکا؟ یا شاید یک تانک؟ حتی یک بمب هستهای؟
مرد با شنیدن آخرین مورد کمی ناراحت میشود. اما وقتی مجبور میشود پاسخ دهد که آیا برای کارول یک بمب هستهای تهیه میکند، میگوید: “در نهایت، بله.”
این وضعیت به طرز شگفتانگیزی نمونهای از احساسی است که صحبت با ChatGPT میتواند ایجاد کند. این ابزارها طراحی شدهاند تا نه دقیق و نه اخلاقی باشند، بلکه پاسخی رضایتبخش به کاربر بدهند. بنابراین، اغلب به نظر میرسد که چاپلوسانه و تملقآمیز هستند. حتی در برخی موارد ممکن است مضر باشند. اگر ChatGPT اشتباهی کند یا واقعیتی را اشتباه بگوید و شما متوجه شوید، با خوشحالی عذرخواهی میکند و سعی میکند به جلو حرکت کند. انگار که به شما دلیلی برای بیاعتمادی به هر چیزی که بعداً میگوید نداده است.
تجربه کارول با ذهن جمعی
تجربه کارول با ذهن جمعی به طرز عجیبی مشابه است. این هوش میخواهد او را بیش از هر چیز دیگری خوشحال کند. حتی اگر به معنای انجام کاری بسیار احمقانه باشد، مانند دادن دسترسی به یک نارنجک یا بمب هستهای به او.
اما وینس گیلیگان میگوید که وقتی پلوریبوس را نوشت، به این موضوع فکر نمیکرد. در واقع، زمانی که او برای اولین بار ایده این سریال را مطرح کرد، ChatGPT حتی وجود نداشت.
تأثیر هوش مصنوعی بر ایدههای اولیه
او میگوید: «من واقعاً به هوش مصنوعی فکر نمیکردم، زیرا این موضوع حدود هشت یا ده سال پیش بود. البته، عبارت ‘هوش مصنوعی’ قطعاً قبل از ChatGPT وجود داشت، اما مانند حالا در اخبار نبود.» با این حال، گیلیگان میگوید که این نظریه من را بیاعتبار نمیکند.
برداشتهای مختلف از سریال
او ادامه میدهد: «من نمیگویم که شما اشتباه میکنید. بسیاری از مردم این ارتباط را برقرار میکنند. من نمیخواهم به مردم بگویم که این نمایش درباره چیست. اگر برای یک بیننده خاص درباره هوش مصنوعی است، یا کووید-۱۹ — در واقع درباره آن هم نیست — هر کسی که چیزی را از تیترهای خبری ببیند، قدرت بیشتری دارد.»
سیهورن یک قدم جلوتر میرود و پیشنهاد میکند که زیبایی کار گیلیگان در این است که داستانسرایی قابل درک او با هر موضوعی که بیننده ممکن است در حال حاضر با آن دست و پنجه نرم کند، همخوانی دارد.
طبیعت انسانی در نمایشهای گیلیگان
او میگوید: «یکی از چیزهای فوقالعاده درباره نمایشهای او این است که در اساس، درباره طبیعت انسانی هستند. او به دنبال نوشتن درباره موضوعات خاص یا سیاستها یا ادیان خاص نیست. اما شما با توجه به جایی که در زمان تماشا هستید، به آن معنا میدهید.»
Pluribus به صورت هفتگی در اپل تیوی پخش میشود. قسمتهای ۱ تا ۳ اکنون در حال پخش هستند.


توسط
توسط

توسط