پدرخوانده هوش مصنوعی:

هوش مصنوعی خوب بر بد پیروز نمی شود

هوش مصنوعی خوب بر بد پیروز نمی شود ما دیجیتال: به گزارش ما دیجیتال، جفری هینتون دانشمند پیشگام در حوزه هوش مصنوعی که لقب پدرخوانده هوش مصنوعی را یدک می کشد، در جدید ترین اظهارات خود گفته که هنوز متقاعد نشده است که هوش مصنوعیِ خوب بر هوش مصنوعیِ بد پیروز می شود و به آینده ی این فناوری خوش بین نیست.


به گزارش ما دیجیتال به نقل از ایسنا، جفری هینتون، استاد دانشگاه تورنتو که اغلب به سبب تحقیقات پیشگامانه اش در حوزه شبکه های عصبی، «پدرخوانده هوش مصنوعی» نامیده می شود، اخیراً به صف اخطار دهندگان در مورد پیشرفت بالقوه خطرناک این فناوری پیوسته است.
او اواسط اردیبهشت ماه کار خودرا در گوگل رها کرد تا آزادانه تر حوزه ای را که به پیشگامی آن کمک کرده بود، نقد کند.
هینتون عمر خودرا وقف مطالعه شبکه های عصبی کرده است که اغلب، کلید هوش مصنوعی هستند، اما بیشتر به خاطر توسعه یک سیستم تشخیص اشیا در سال ۲۰۱۲ شناخته می شود. شبکه عصبی موفق او می تواند از تصاویر آموزشی برای مساعدت با تشخیص اشیای رایج استفاده نماید.
هینتون پیشرفت و افزایش اخیر هوش مصنوعی های مولد مانند ChatGPT و Bing Chat را نشانه هایی از شتاب غیرقابل کنترل و بالقوه خطرناک در توسعه این فناوری دانست.
وی در ایام اخیر در کنفرانسی موسوم به کالیژن(Collision) که در تورنتو برگزار گردید، نگرانی های خودرا تشریح کرده است.
در صورتیکه شرکتها هوش مصنوعی را به عنوان چاره ای برای همه چیز می دانند و آنرا تبلیغ می کنند، جفری هینتون زنگ خطر را به صدا درآورده است. او می گوید متقاعد نشده است که هوش مصنوعیِ خوب بر هوش مصنوعیِ بد پیروز شود و معتقد می باشد که سازگاری اخلاقی هوش مصنوعی ممکنست هزینه زیادی داشته باشد.
گذشتن از گوگل برای آزادی بیان
گوگل در سال ۲۰۱۳ استارتاپ DNNresearch متعلق به جفری هینتون را خریداری کرد و مفهوم زیربنایی اختراع او به رشد موجی از توسعه کمک کرد که منجر به فناوری هوش مصنوعی مولد امروزی شد.
اما جفری هینتون در ماه آوریل از سمت معاونت و رئیس مهندسی گوگل استعفا داد تا بتواند آزادانه در مورد خطرات در رابطه با این فناوری اخطار دهد.
این پژوهشگر نگران است که گوگل در کوشش برای رقابت با ربات های هوش مصنوعی نظیر ChatGPT، Bing Chat و مدلهای مشابه، محدودیت ها و احتیاط های قبلی خودرا برای توسعه هوش مصنوعی کنار بگذارد و راه را به روی مشکلات اخلاقی گوناگون باز کند.
هینتون نگران است که هوش مصنوعی مولد در کوتاه مدت بتواند به موجی از اطلاعات نادرست دامن بزند. وی می گوید: شاید دیگر نتوانید بدانید چه چیزی درست است. او همین طور نگران است که این فناوری نه فقط برخی کارها را حذف کند، بلکه بطور کامل جایگزین تعدادی از مشاغل شود.
این دانشمند همین طور در مورد امکان توسعه سلاح های بطورکامل خودمختار و تمایل مدلهای هوش مصنوعی به یادگیری رفتارهای عجیب و غریب از داده های آموزشی نگران است.
جفری هینتون می گوید سال قبل زمانی که شرکت های گوگل، OpenAI و دیگران شروع به ایجاد سیستم های هوش مصنوعی کردند، موضع او تغییر کرده است. هوش مصنوعی تنها در پنج سال قبل به سرعت توسعه یافته است که بگفته پدرخوانده این حوزه، تصور این که در پنج سال آینده چه اتفاقی می افتد، «ترسناک» است.


تهدیدی برای بشریت
هینتون مدعی است که هوش مصنوعی تنها به اندازه افرادی که آنرا می سازند، خوب است و نوعِ بد آن هنوز هم می تواند بر نمونه ی خوب آن پیروز شود.
وی توضیح داد: من متقاعد نشده ام که بتوانم یک هوش مصنوعی خوب را که تلاش می کند جلوی بدی را بگیرد، کنترل کنم. برای مثال، ممکنست دشوار باشد که یک مجتمع نظامی-صنعتی را از تولید ربات های جنگی بازدارید.
او می گوید شرکتها و ارتش ها ممکنست جنگ هایی را دوست داشته باشند که تلفات در آنها، ماشین هایی هستند که به آسانی می توان آنها را جایگزین کرد.
در صورتیکه هینتون معتقد می باشد که مدلهای زبانی بزرگ(هوش مصنوعی آموزش دیده که متنی شبیه به انسان تولید می کند، مانند GPT-۴ توسعه یافته توسط شرکت OpenAI) می تواند منجر به افزایش چشم گیر راندمان شود، اما او نگران است که طبقه حاکم بسادگی از این مزیت برای غنی سازی خود سوءاستفاده کند و شکاف ثروت بزرگ کنونی را بیشتر کند. هینتون می گوید این امر «ثروتمندان را ثروتمندتر و فقرا را فقیرتر می کند».
هینتون همین طور دیدگاه خودرا که بسیار نقل قول شده بود، تکرار کرد. او می گوید هوش مصنوعی می تواند خطری برای موجودیت بشریت بوجود آورد. اگر هوش مصنوعی از انسان باهوش تر شود، هیچ تضمینی وجود ندارد که مردم در راس کار باقی بمانند.
هینتون اضافه کرد: اگر هوش مصنوعی تصمیم بگیرد که در دست گرفتن اختیار امور برای دستیابی به اهدافش لازمست، ما به مشکل می خوریم.
از نظر هینتون، این تهدیدها، علمی-تخیلی نیستند. آنها باید جدی گرفته شوند. او نگران است که جامعه وقتی به فکر چاره بیافتد که دیر شده است.
هینتون می گوید هم اکنون مشکلات زیادی وجود دارد. او استدلال می کند که سوگیری و تبعیض همچنان یک مشکل اساسی است، چونکه داده های آموزشی نادرست می تواند نتایج ناعادلانه ای بوجود آورد. الگوریتم ها هم اتاق های پژواک ایجاد می کنند که اطلاعات نادرست و مسائل مربوط به سلامت روان را تقویت می کنند.
در رسانه های خبری، لفظ اتاق پژواک تمثیلی از اتاق پژواک صوتی است که در آن صدا در فضایی بسته منعکس می شود. اتاق پژواک توصیفی کنایی از وضعیتی است که در آن اطلاعات، ایده ها یا باورها با ارتباطات و تکرار درون یک سامانه تعریف شده تقویت می شوند. درون یک اتاق پژواک تمثیلی، منابع رسمی غالباً زیر سؤال نمی روند و دیدگاه های متفاوت یا رقیب سانسور، ممنوع یا کمتر از حد، پوشش داده می شوند.
هینتون همین طور نگران انتشار اطلاعات نادرست توسط هوش مصنوعی فراتر از اتاق های پژواک است. او مطمئن نیست که آیا بتوان هر ادعای جعلی هوش مصنوعی را تمیز داد.
این بدان معنا نیست که هینتون از تأثیر هوش مصنوعی ناامید شده است، بااینکه او اخطار می دهد که استفاده سالم از این فنآوری ممکنست هزینه بالایی داشته باشد. انسان ها ممکنست مجبور باشند کار آزمایشی و تجربی را برای درک این که چگونه هوش مصنوعی ممکنست اشتباه کند و اینکه چگونه از در دست گرفتن کنترل توسط آن جلوگیری نمایند، انجام دهند.
وی می گوید هم اکنون تصحیح سوگیری ها امکان پذیر است. یک مدل زبانی بزرگ می تواند به اتاق های پژواک پایان دهد، اما تغییرات در سیاست های شرکت را بسیار مهم می دانم.
این استاد دانشگاه در پاسخ به سوالاتی در مورد افرادی که شغل خودرا به خاطر اتوماسیون و ماشینی شدن از دست می دهند، اظهار داشت که احساس می کند «سوسیالیسم» یا جامعه گرایی برای رسیدگی به نابرابری مورد نیاز است و مردم می توانند با انتخاب مشاغلی که می تواند با گذشت زمان تغییر کند، مانند لوله کشی، از بیکاری در امان بمانند. بنظر می رسد او شوخی نمی کند و معتقد می باشد که جامعه ممکنست مجبور باشد تغییرات گسترده ای برای انطباق با هوش مصنوعی در خود بوجود آورد.
شایان ذکر است که هینتون در این موضع گیری، تنها نیست. برخی از دانشگاهیان و افراد برجسته در عرصه فناوری همچون ایلان ماسک و استیو وزنیاک هم اخیراً نامه ای سرگشاده امضا و منتشر نموده اند که در آن خواهان توقف شش ماهه توسعه هوش مصنوعی برای رسیدگی به مشکلات اخلاقی و ایمنی آن شده اند. با این وجود، سخنان هینتون به عنوان یکی از برجسته ترین چهره های این صنعت، وزن قابل توجهی دارد.


امیدواری به صنعت هوش مصنوعی
برخی دیگر از مصاحبه ها در کنفرانس کالیژن(Collision) امیدوارکننده تر بود. کالین مورداک، مدیر تجاری گوگل دیپ مایند در یک بحث متفاوت اظهار داشت که هوش مصنوعی درحال حل تعدادی از سخت ترین چالش های جهان است.
او گفت صحبت زیادی دراین زمینه نمی گردد. گوگل دیپ مایند درحال لیست بندی تمام پروتئین های شناخته شده، مبارزه با باکتری های مقاوم به آنتی بیوتیک و حتی تسریع کار بر روی توسعه واکسن های مالاریا است.
او از چیزی به عنوان «هوش مصنوعی عمومی» سخن به میان آورد که می تواند چندین مشکل را حل کند و به عنوان نمونه به محصولات گوگل اشاره نمود. وی اظهار داشت: ابزار Lookout برای توصیف عکس ها مفید می باشد، اما فناوری زیربنایی آن سبب می شود جستجو در YouTube Shorts هم امکان پذیر شود.
مورداک تا آنجا پیش رفت که از ۶ تا ۱۲ ماه گذشته به عنوان نقطه عطف در شکوفایی هوش مصنوعی نام برد که پتانسیل آن آزاد شده است.
مورگان مک گوایر، دانشمند ارشد روبلوکس(Roblox) –سکویی جهانی که افراد را بوسیله بازی دور هم جمع می کند- تا حد زیادی با این مساله موافق است. او معتقد می باشد که ابزارهای هوش مصنوعی مولدِ سکوی بازی، شکاف را بین سازندگان جدید و پیشکسوتان کم کرده و نوشتن کد و ایجاد مواد درون بازی را آسان تر می کنند.
روبلوکس حتی درحال عرضه یک مدل هوش مصنوعی منبع باز به نام StarCoder است که امیدوار است با در دسترس تر کردن مدلهای زبانی بزرگ به دیگران کمک نماید.
در صورتیکه مک گوایر در یک بحث به چالش هایی در مورد مقیاس بندی و تعدیل محتوا اذعان کرد، اما او معتقد می باشد که متاورس به لطف مجموعه خلاقانه اش، امکانات نامحدودی خواهد داشت.
مورداک و مک گوایر هر دو نگرانی های مشابهی را با هینتون ابراز کردند، اما لحن آنها بطور قطع کمتر هشداردهنده بود.
مورداک اصرار کرد که دیپ مایند خواهان یک هوش مصنوعی ایمن، اخلاقی و فراگیر است و به مشاوره های تخصصی و سرمایه گذاری های آموزشی گوگل دیپ مایند به عنوان مدرک اشاره نمود. وی اصرار دارد که راه برای وضع مقررات باز است، اما فقط تا جایی که اجازه پیشرفت های اعجاب انگیز را بدهد.
مک گوایر هم اظهار داشت که روبلوکس همیشه ابزارهای هوش مصنوعی مولد را با تعدیل محتوا عرضه می کند، بر مجموعه های داده ای متنوع تکیه می کند و شفافیت را تمرین می کند.


امید به آینده
بر خلاف اظهار نظرهایی که جفری هینتون بتازگی داشته است، اشتیاق کلی وی برای توسعه هوش مصنوعی بعد از ترک گوگل کاهش نیافته است. خودش می گوید اگر کارم را در گوگل ترک نمی کردم، مطمئنم که روی مدلهای هوش مصنوعی چندوجهی کار می کردم که در آن بینش، زبان و سایر نشانه ها به تصمیم گیری کمک می نماید.
وی می گوید کودکان کوچک فقط از زبان یاد نمی گیرند، ماشین ها هم می توانند همین کار را انجام دهند.
در عین حال که هینتون نگران خطرات هوش مصنوعی است، معتقد می باشد که در نهایت می تواند هر کاری را که یک انسان می تواند، انجام دهد و قدرت تعقل داشته باشد. به عنوان مثال، GPT-۴ می تواند خودرا برای حل پازل ها و معماهای دشوارتر وفق دهد.
هینتون اذعان می کند که سخنرانی اش در کنفرانس کالیژن، چیز زیادی درباره ی کاربردهای خوب هوش مصنوعی مانند مبارزه با تغییرات آب و هوایی بیان نکرده است.
او می گوید، پیشرفت فناوری هوش مصنوعی احیانا سالم بوده است، حتی اگر هنوز نگران نتایج آن باشیم.
هینتون در پایان، آزادانه اعتراف کرد که علی رغم مشکلات اخلاقی احتمالی، از اشتیاقش نسبت به هوش مصنوعی کاسته نشده است. او اظهار داشت: من عاشق این چیزها هستم. چگونه می توان عاشق ساختن چیزهای هوشمند نبود؟




منبع:

1402/04/13
09:29:32
5.0/5
276
تگهای خبر: آموزش , ابزار , بازی , دانش
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۵ بعلاوه ۵
madigital.ir - حقوق مادی و معنوی سایت ما دیجیتال محفوظ است

ما دیجیتال

اخبار دیجیتال و فناوری اطلاعات