نیمه‌خالی ChatGPT

چرا ابزارهای هوش مصنوعی مثل ChatGPT دوقطبی شده‌‌‌اند؟

جدیدترین تکنولوژی در حوزه هوش مصنوعی، یعنی ChatGPT که محتوای متنی به کمک اقیانوسی از داده‌ها تولید می‌کند، به فاصله کوتاهی از معرفی و استفاده از آن، اکنون موجی از «هراس توام با امید» برای مدیران ایجاد کرده است. طرفداران هوش مصنوعی انتظار دارند این تکنولوژی همیشه منشأ خیر باشد؛ اما خروجی ChatGPT به یک دلیل، ضمانتی ندارد؛ «این ماشین، خودش تحلیل می‌کند».

وقتی پای حرف طرفداران هوش مصنوعی می‌‌‌نشینید، می‌‌‌گویند این تکنولوژی قرار است تقریبا همه جنبه‌‌‌های زندگی را به سوی بهتر شدن متحول کند. موجی از ابزارهای جدید و به‌‌‌روز موانع استفاده از زبان‌‌‌ها را از بین می‌‌‌برند، وظایف تکراری را اتوماتیک‌‌‌سازی می‌کنند و حتی به تشخیص سرطان و همراهی با افرادی که تنها هستند کمک می‌کنند.

با این حال، گروه زیادی از افراد بدبین می‌‌‌گویند هوش مصنوعی زندگی ما را متحول می‌کند – اما به سوی بدتر شدن. از نظر آنها، این تکنولوژی بدترین سوگیری‌‌‌های جامعه را جذب و منعکس می‌کند و معیشت خیلی از هنرمندان و کارکنان اداری را به خطر می‌‌‌اندازد.

جدیدترین موج هوش مصنوعی، صنعت تکنولوژی و منتقدان آن را دچار آشفتگی کرده است. ابزارهایی مثل ChatGPT، Replika و Stable Diffusion که مثل انسان از نرم‌‌‌افزارهای یادگیری برای درست کردن متن، تصویر و فیلم‌‌‌ استفاده می‌کنند، به سرعت مرز بین انسان و ماشین و همچنین حقیقت و داستان را از بین می‌‌‌برند.

طیف مختلفی از بخش‌‌‌ها، از آموزش و خدمات درمانی گرفته تا بیمه و بازاریابی، به این فکر می‌کنند که هوش مصنوعی چطور می‌تواند شکل کسب و کار آنها را تغییر دهد و بنابراین موج تازه‌‌‌ای از هراس و امید در این حوزه ایجاد شده است. چیزی که هر دو این حس‌‌‌ها را تقویت می‌کند، این است که ماشین‌‌‌ها خیلی سریع هوشمند می‌‌‌شوند و ممکن است روزی برسد که از کنترل ما خارج شوند. تریستان هریس، متخصص اخلاق تکنولوژی، اخیرا اعلام کرده: «هر کاری که انرژی هسته‌‌‌ای با دنیای فیزیکی می‌کند، هوش مصنوعی با هر چیز دیگری می‌کند.»

کارشناسان می‌‌‌گویند مزیت‌‌‌ها و جنبه‌‌‌های تاریک این موضوع واقعی هستند. اما در کوتاه‌مدت، وعده‌‌‌ها و مخاطرات هوش مصنوعی مولد، معتدل‌‌‌تر از آن چیزی هستند که تیتر اخبار و مقالات به ما می‌‌‌گویند.

مارگارت اومارا، استاد تاریخ دانشگاه واشنگتن، می‌‌‌گوید: «ترکیب جاذبه و ترس، یا رضایت و هشدار، چیزی است که از زمان معرفی اولین کامپیوتر تمام دیجیتال، از هر موج تکنولوژیک جدیدی استقبال کرده است.»

او اضافه می‌کند که درست مثل دیگر تحولات تکنولوژیک گذشته، مدل‌‌‌های هوش مصنوعی امروز می‌توانند یکسری وظایف مشخص روزمره را اتوماتیک‌‌‌سازی کنند، یکسری مشاغل را از بین ببرند، برخی مشکلات را حل کنند و برخی را بدتر کنند، اما قرار نیست «تنها نیروی شگفت‌‌‌انگیزی باشد که همه چیز را متحول می‌کند».

نه هوش مصنوعی و نه چت‌‌‌بات‌‌‌ها چیز جدیدی نیستند. انواع مختلف هوش مصنوعی در حال حاضر برای «فیدهای» تیک تاک، پلی لیست‌‌‌های موسیقی شخصی‌‌‌سازی شده اسپاتیفای، سیستم‌های خودران تسلا، توسعه داروسازی و سیستم‌های تشخیص چهره در بازجویی‌‌‌های جنایی به کار می‌‌‌روند.

چت‌‌‌بات‌‌‌های ساده تقریبا از دهه ۶۰ کار می‌کنند و در سطح گسترده‌‌‌ای برای خدمات اینترنتی به مشتریان مورد استفاده بوده‌‌‌اند. چیزی که جدید است، التهابی است که برای هوش مصنوعی مولد ایجاد شده – یعنی یک دسته‌‌‌بندی جدید از ابزارهای هوش مصنوعی که به جای تحلیل یا ارائه محتوایی که انسان دیگری ایجاد کرده، اقیانوسی از داده‌‌‌ها را می‌گیرد تا محتوای منحصر به خود را تولید کند؛ از هنر و شعر و متن گرفته تا حتی کدهای کامپیوتری. تکنولوژی تقویت‌‌‌کننده هوش مصنوعی مولد سال‌ها در لابراتوارهای تحقیقاتی در حال آماده‌‌‌سازی بود، اما استارت‌آپ‌‌‌ها و شرکت‌ها به تازگی آن را در دسترس عموم قرار داده‌‌‌اند.

محبوبیت ابزارهای رایگانی مثل چت‌‌‌بات ChatGPT شرکت OpenAI و تولیدکننده عکس DALL-E باعث شده غول‌‌‌های این صنعت، مثل مایکروسافت، گوگل و فیس‌‌‌بوک، برای وارد کردن ابزارهای مشابه به محصولات پرطرفدار خود، به رقابت شدید بپردازند.

به هر حال، برای هر داستان موفقیتی یک سناریوی کابوس‌‌‌وار هم وجود دارد. سهولت استفاده از ChatGPT  برای نوشتن ایمیل‌‌‌های حرفه‌‌‌ای که از نظر دستوری هم کاملا درست باشند، در وقت روزانه خیلی از افراد صرفه‌‌‌جویی کرده و به کمک کسانی آمده که در دیکته و نگارش مشکل دارند. اما دانشگاه وندربیلت از ChatGPT برای نوشتن ایمیلی سراسری استفاده کرد که واقعه تیراندازی در ایالت میشیگان را تسلیت می‌‌‌گفت و این موضوع خشم دانشجوها را برانگیخت.

ChatGPT  و دیگر ابزارهای هوش مصنوعی، می‌توانند کد کامپیوتری هم بنویسند، بازی طراحی کنند و با استفاده از داده‌‌‌هایی که در اختیار دارند، دیدگاه‌‌‌هایی مطرح کنند. اما هیچ تضمینی وجود ندارد که این کدها کارآیی داشته باشند، ‌‌‌ بازی‌‌‌ها درست کار کنند یا دیدگاه‌‌‌ها درست باشند. بات هوش مصنوعی «بینگ» (Bing)  شرکت مایکروسافت، تاکنون پاسخ‌‌‌های غلطی به درخواست‌‌‌های جست‌‌‌وجو داده یا یکی از بازی‌‌‌هایی که ChatGPT  اختراع کرده، دقیقا کپی یک بازی دیگر است که قبلا وجود داشته است.  ابزار کدنویسی هوش مصنوعی‌GitHub Copilot، به سرعت در اختیار خیلی از توسعه‌‌‌دهندگان نرم‌‌‌افزار قرار گرفت که خط بعدی کدها را پیش‌بینی می‌کند و برای مشکلات رایج، راه‌حل پیشنهاد می‌دهد. اما راه‌حل‌‌‌های این ابزار همیشه هم درست نیستند و اگر مهندس‌‌‌ها حواسشان نباشد، می‌تواند کدهای غلط را وارد سیستم‌ها کند.

ظرفیت استفاده مثبت یا منفی از یک تکنولوژی، منحصر به هوش مصنوعی مولد نیست. دیگر ابزارهای هوش مصنوعی مثل ابزارهایی که برای کشف داروهای جدید به کار می‌‌‌روند، جنبه‌‌‌های منفی خودشان را دارند. سال گذشته، محققان دریافتند که همین سیستم‌ها این توانایی را دارند که در مورد ۴۰‌هزار سلاح زیستی مرگبار جدید، ایده‌‌‌پردازی کنند.

تکنولوژی‌‌‌های آشناتر، از الگوریتم‌‌‌های توصیه‌‌‌گر گرفته تا رسانه‌‌‌های اجتماعی و پهپادهای دوربین‌‌‌دار، به همین شکل می‌توانند هم کاربرد امیدبخش داشته باشند و هم مخرب. اما هوش مصنوعی مولد، به طور خاص واکنش‌‌‌های قوی‌‌‌تری را برمی‌‌‌انگیزاند، چون می‌تواند کارهایی را انجام دهد که همیشه در انحصار انسان بوده است – مثل نوشتن شعر و ساختن کارهای هنری.

اومارا می‌‌‌گوید درسی که می‌توان گرفت این نیست که تکنولوژی ذاتا خوب، بد یا حتی خنثی است. چگونگی طراحی، استفاده و بازاریابی آن برای کاربران می‌تواند بر میزان مخرب بودن یا سوء مصرف ابزاری مثل چت‌‌‌بات‌‌‌ها اثر بگذارد و تب تندی که برای استفاده از ChatGPT ایجاد شده و باعث شده همه جا گفته شود که این ابزار جامعه را متحول می‌کند و به «تسلط روبات‌‌‌ها» منجر می‌شود، هم بر قضاوت کاربران و هم خالقان آن، سایه می‌‌‌اندازد.

اومارا می‌‌‌گوید: «حالا برای اولین بار رقابت تسلیحاتی هوش مصنوعی را داریم و نگرانی من همین جاست.» از نظر او، رقابت شرکت‌هایی مثل مایکروسافت و گوگل برای جست‌‌‌وجوی همه چیز با هوش مصنوعی و سرعت زیاد حرکت به این سمت، همه چیز را خراب می‌کند.
مترجم: مریم رضایی منبع: Washington Post

اشتراک گذاری:



دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *