چرا ابزارهای هوش مصنوعی مثل ChatGPT دوقطبی شدهاند؟
جدیدترین تکنولوژی در حوزه هوش مصنوعی، یعنی ChatGPT که محتوای متنی به کمک اقیانوسی از دادهها تولید میکند، به فاصله کوتاهی از معرفی و استفاده از آن، اکنون موجی از «هراس توام با امید» برای مدیران ایجاد کرده است. طرفداران هوش مصنوعی انتظار دارند این تکنولوژی همیشه منشأ خیر باشد؛ اما خروجی ChatGPT به یک دلیل، ضمانتی ندارد؛ «این ماشین، خودش تحلیل میکند».
وقتی پای حرف طرفداران هوش مصنوعی مینشینید، میگویند این تکنولوژی قرار است تقریبا همه جنبههای زندگی را به سوی بهتر شدن متحول کند. موجی از ابزارهای جدید و بهروز موانع استفاده از زبانها را از بین میبرند، وظایف تکراری را اتوماتیکسازی میکنند و حتی به تشخیص سرطان و همراهی با افرادی که تنها هستند کمک میکنند.
با این حال، گروه زیادی از افراد بدبین میگویند هوش مصنوعی زندگی ما را متحول میکند – اما به سوی بدتر شدن. از نظر آنها، این تکنولوژی بدترین سوگیریهای جامعه را جذب و منعکس میکند و معیشت خیلی از هنرمندان و کارکنان اداری را به خطر میاندازد.
جدیدترین موج هوش مصنوعی، صنعت تکنولوژی و منتقدان آن را دچار آشفتگی کرده است. ابزارهایی مثل ChatGPT، Replika و Stable Diffusion که مثل انسان از نرمافزارهای یادگیری برای درست کردن متن، تصویر و فیلم استفاده میکنند، به سرعت مرز بین انسان و ماشین و همچنین حقیقت و داستان را از بین میبرند.
طیف مختلفی از بخشها، از آموزش و خدمات درمانی گرفته تا بیمه و بازاریابی، به این فکر میکنند که هوش مصنوعی چطور میتواند شکل کسب و کار آنها را تغییر دهد و بنابراین موج تازهای از هراس و امید در این حوزه ایجاد شده است. چیزی که هر دو این حسها را تقویت میکند، این است که ماشینها خیلی سریع هوشمند میشوند و ممکن است روزی برسد که از کنترل ما خارج شوند. تریستان هریس، متخصص اخلاق تکنولوژی، اخیرا اعلام کرده: «هر کاری که انرژی هستهای با دنیای فیزیکی میکند، هوش مصنوعی با هر چیز دیگری میکند.»
کارشناسان میگویند مزیتها و جنبههای تاریک این موضوع واقعی هستند. اما در کوتاهمدت، وعدهها و مخاطرات هوش مصنوعی مولد، معتدلتر از آن چیزی هستند که تیتر اخبار و مقالات به ما میگویند.
مارگارت اومارا، استاد تاریخ دانشگاه واشنگتن، میگوید: «ترکیب جاذبه و ترس، یا رضایت و هشدار، چیزی است که از زمان معرفی اولین کامپیوتر تمام دیجیتال، از هر موج تکنولوژیک جدیدی استقبال کرده است.»
او اضافه میکند که درست مثل دیگر تحولات تکنولوژیک گذشته، مدلهای هوش مصنوعی امروز میتوانند یکسری وظایف مشخص روزمره را اتوماتیکسازی کنند، یکسری مشاغل را از بین ببرند، برخی مشکلات را حل کنند و برخی را بدتر کنند، اما قرار نیست «تنها نیروی شگفتانگیزی باشد که همه چیز را متحول میکند».
نه هوش مصنوعی و نه چتباتها چیز جدیدی نیستند. انواع مختلف هوش مصنوعی در حال حاضر برای «فیدهای» تیک تاک، پلی لیستهای موسیقی شخصیسازی شده اسپاتیفای، سیستمهای خودران تسلا، توسعه داروسازی و سیستمهای تشخیص چهره در بازجوییهای جنایی به کار میروند.
چتباتهای ساده تقریبا از دهه ۶۰ کار میکنند و در سطح گستردهای برای خدمات اینترنتی به مشتریان مورد استفاده بودهاند. چیزی که جدید است، التهابی است که برای هوش مصنوعی مولد ایجاد شده – یعنی یک دستهبندی جدید از ابزارهای هوش مصنوعی که به جای تحلیل یا ارائه محتوایی که انسان دیگری ایجاد کرده، اقیانوسی از دادهها را میگیرد تا محتوای منحصر به خود را تولید کند؛ از هنر و شعر و متن گرفته تا حتی کدهای کامپیوتری. تکنولوژی تقویتکننده هوش مصنوعی مولد سالها در لابراتوارهای تحقیقاتی در حال آمادهسازی بود، اما استارتآپها و شرکتها به تازگی آن را در دسترس عموم قرار دادهاند.
محبوبیت ابزارهای رایگانی مثل چتبات ChatGPT شرکت OpenAI و تولیدکننده عکس DALL-E باعث شده غولهای این صنعت، مثل مایکروسافت، گوگل و فیسبوک، برای وارد کردن ابزارهای مشابه به محصولات پرطرفدار خود، به رقابت شدید بپردازند.
به هر حال، برای هر داستان موفقیتی یک سناریوی کابوسوار هم وجود دارد. سهولت استفاده از ChatGPT برای نوشتن ایمیلهای حرفهای که از نظر دستوری هم کاملا درست باشند، در وقت روزانه خیلی از افراد صرفهجویی کرده و به کمک کسانی آمده که در دیکته و نگارش مشکل دارند. اما دانشگاه وندربیلت از ChatGPT برای نوشتن ایمیلی سراسری استفاده کرد که واقعه تیراندازی در ایالت میشیگان را تسلیت میگفت و این موضوع خشم دانشجوها را برانگیخت.
ChatGPT و دیگر ابزارهای هوش مصنوعی، میتوانند کد کامپیوتری هم بنویسند، بازی طراحی کنند و با استفاده از دادههایی که در اختیار دارند، دیدگاههایی مطرح کنند. اما هیچ تضمینی وجود ندارد که این کدها کارآیی داشته باشند، بازیها درست کار کنند یا دیدگاهها درست باشند. بات هوش مصنوعی «بینگ» (Bing) شرکت مایکروسافت، تاکنون پاسخهای غلطی به درخواستهای جستوجو داده یا یکی از بازیهایی که ChatGPT اختراع کرده، دقیقا کپی یک بازی دیگر است که قبلا وجود داشته است. ابزار کدنویسی هوش مصنوعیGitHub Copilot، به سرعت در اختیار خیلی از توسعهدهندگان نرمافزار قرار گرفت که خط بعدی کدها را پیشبینی میکند و برای مشکلات رایج، راهحل پیشنهاد میدهد. اما راهحلهای این ابزار همیشه هم درست نیستند و اگر مهندسها حواسشان نباشد، میتواند کدهای غلط را وارد سیستمها کند.
ظرفیت استفاده مثبت یا منفی از یک تکنولوژی، منحصر به هوش مصنوعی مولد نیست. دیگر ابزارهای هوش مصنوعی مثل ابزارهایی که برای کشف داروهای جدید به کار میروند، جنبههای منفی خودشان را دارند. سال گذشته، محققان دریافتند که همین سیستمها این توانایی را دارند که در مورد ۴۰هزار سلاح زیستی مرگبار جدید، ایدهپردازی کنند.
تکنولوژیهای آشناتر، از الگوریتمهای توصیهگر گرفته تا رسانههای اجتماعی و پهپادهای دوربیندار، به همین شکل میتوانند هم کاربرد امیدبخش داشته باشند و هم مخرب. اما هوش مصنوعی مولد، به طور خاص واکنشهای قویتری را برمیانگیزاند، چون میتواند کارهایی را انجام دهد که همیشه در انحصار انسان بوده است – مثل نوشتن شعر و ساختن کارهای هنری.
اومارا میگوید درسی که میتوان گرفت این نیست که تکنولوژی ذاتا خوب، بد یا حتی خنثی است. چگونگی طراحی، استفاده و بازاریابی آن برای کاربران میتواند بر میزان مخرب بودن یا سوء مصرف ابزاری مثل چتباتها اثر بگذارد و تب تندی که برای استفاده از ChatGPT ایجاد شده و باعث شده همه جا گفته شود که این ابزار جامعه را متحول میکند و به «تسلط روباتها» منجر میشود، هم بر قضاوت کاربران و هم خالقان آن، سایه میاندازد.
اومارا میگوید: «حالا برای اولین بار رقابت تسلیحاتی هوش مصنوعی را داریم و نگرانی من همین جاست.» از نظر او، رقابت شرکتهایی مثل مایکروسافت و گوگل برای جستوجوی همه چیز با هوش مصنوعی و سرعت زیاد حرکت به این سمت، همه چیز را خراب میکند.
مترجم: مریم رضایی منبع: Washington Post