از پیش افتاده ترین ملاحظات تا نگرانی های آخرالزمانی؛

مبحث مبهمی به نام اخلاق هوش مصنوعی

مبحث مبهمی به نام اخلاق هوش مصنوعی ما دیجیتال: به گزارش ما دیجیتال، اخلاق هوش مصنوعی یا لحاظ کردن و رعایت اخلاقیات در حوزه هوش مصنوعی، چیزی است که با عنایت به پیشرفت لحظه به لحظه این فناوری، روز به روز توجهات بیشتری را به خود جلب می کند. اخلاق هوش مصنوعی موضوعی است که از پیش افتاده ترین ملاحظات تا نگرانی های آخرالزمانی را شامل می شود و تابحال به درستی به آن پرداخته نشده است.


به گزارش ما دیجیتال به نقل از ایسنا، وقتی به مسائل اخلاقی فکر می شود، به طور معمول فناوری به ذهن نمی آید. این در حالیست که «اخلاق فناوری» زیرمجموعه ای از مباحث اخلاقی است که به سوالات اخلاقی مربوط به عصر فناوری و تغییر در جامعه که در آن کامپیوتر های شخصی و دستگاه های جدید معرفی می گردند، می پردازد.
اخلاق در فناوری طی سالهای اخیر با پیشرفت فناوری متحول شده است. نمی توان اخلاقیات را در حوزه فناوری به حساب نیاورد، چونکه وضع مقرراتی برای رعایت حقوق میان انسان ها با ماشین ها و ربات ها به روشنی از نیازهای مبرم جامعه است تا هرج و مرج و ‌پریشانی ایجاد نشود.
امروزه یکی از مظاهر بارز فناوری پیشرفته، ظهور هوش مصنوعی است که جهانیان را خصوصاً در چند ماه اخیر با معرفی ربات های گفتگوگر یا چت بات ها به خود مشغول کرده است.
این ربات های همه چیزدان حالا دیگر قادر شده اند تا مانند یک انسان با بشر گفتگو کنند و به سوالات ریز و درشت ما با جستجوی لحظه ای و تحلیل اطلاعات و پاسخ های موجود در فضای اینترنت پاسخ دهند. آنها هم اکنون به جایی رسیده اند که حتی می توانند شعر بگویند یا نوشته و توصیف هر فرد از منظره یا رویدادی را به شکل عکس و ویدیو به تصویر درآورند.
اما به مانند هر چیز در دنیا، بر کسی پوشیده نیست که رعایت اخلاق دراین زمینه نیز واجب است، چونکه عدم رعایت آن به مدلول ایجاد هرج و مرج و ضایع شدن حق خواهد بود.



اخلاق هوش مصنوعی چیست و چرا اهمیت دارد؟
با گسترش هوش مصنوعی و تلاش دولت ها برای تطبیق ساختار و قانون با این فناوری درحال رشد، اخلاق هوش مصنوعی به عنوان یک موضوع مهم مطرح گردیده است که همه باید از آن آگاه باشند.
تعاریف از اخلاق هوش مصنوعی متفاوت می باشد، اما بطور کلی، «اخلاق هوش مصنوعی» اصطلاحی است که به مجموعه وسیعی از ملاحظات برای هوش مصنوعی مسئولانه داده می شود که ایمنی، امنیت، نگرانی های انسانی و ملاحظات زیست محیطی را ترکیب می کند.
«اخلاق هوش مصنوعی» در دایره المعارف جهانی ویکی پدیا به عنوان قسمتی از اخلاق فناوری انگاشته شده است که بصورت خاص به ربات و هوش مصنوعی مربوط می شود و در مورد نحوه رفتار و عملکرد انسان با هوش مصنوعی و بالعکس آنست. در اخلاق هوش مصنوعی به بررسی حقوق ربات ها و درستی یا نادرستی جایگزین شدن آنها در نقش های انسانی پرداخته می شود.
این مساله در تعریف شرکت آی بی ام(IBM) که یکی از پیشروترین شرکتها در توسعه فناوری هوش مصنوعی است، به عنوان موضوعی یاد شده است که دانشمندان و پژوهشگران داده را راهنمایی می کند که سیستم های هوش مصنوعی را به روشی اخلاقی بسازند تا به نفع تمام جامعه به عنوان یک کل باشد.
طبق تعریف این شرکت، «اخلاق» به مجموعه ای از اصول اخلاقی گفته می شود که به ما در تشخیص درست و نادرست کمک می نماید. اخلاق هوش مصنوعی نیز مجموعه ای از دستورالعمل هایی است که در مورد طراحی و نتایج هوش مصنوعی سفارش می کند.
انسان ها با انواع سوگیری های شناختی و ذاتی که در رفتارهای ما نهفته است و متعاقباً در داده های ما ظهور و بروز پیدا می کند، شناخته شده اند و از آنجا که داده ها پایه و اساس همه الگوریتم های یادگیری ماشینی هستند، برای ما مهمست که آزمایش ها و الگوریتم ها را با در نظر گرفتن این مساله ساختار ببخشیم، برای اینکه هوش مصنوعی این پتانسیل را دارد که این سوگیری های انسانی را با سرعتی بی سابقه تقویت کند.
بگفته آی بی ام، با آشکار شدن نمونه هایی از نتایج ناعادلانه، تعریف دستورالعمل های جدیدی، عمدتا از طرف جوامع تحقیقاتی و علم داده، برای رسیدگی به نگرانی های مربوط به اخلاق هوش مصنوعی سفارش شده است. شرکت های پیشرو در حوزه هوش مصنوعی نیز به ایجاد این دستورالعمل ها علاقه نشان داده اند، برای اینکه خودشان آغاز به تجربه تعدادی از عواقب ناشی از عدم رعایت استانداردهای اخلاقی در محصولات خود کرده اند.
عدم دقت دراین زمینه می تواند منجر به مواجهه با عواقب پرهزینه شود و باید اطمینان پیدا کرد هوش مصنوعی از هرگونه نقض حقوق بشر و آزادی های مدنی اجتناب کند.
یونسکو(سازمان آموزشی، علمی و فرهنگی سازمان ملل متحد) که کوشش های بین المللی را برای اطمینان از توسعه علم و فناوری با محافظت های اخلاقی قدرتمند برای دهه ها رهبری کرده و در حوزه تحقیقات ژنتیکی، تغییرات آب و هوایی یا تحقیقات علمی، استانداردهای جهانی را برای به حداکثر رساندن مزایای اکتشافات علمی ارائه کرده است تا خطرات منفی را به حداقل برساند و تضمین کند که آنها به جهانی فراگیرتر، پایدارتر و صلح آمیز کمک می کنند، معتقد می باشد که پیشرفت سریع هوش مصنوعی فرصت های زیادی را در سطح جهانی، از تسهیل تشخیص مراقبت های بهداشتی گرفته تا ایجاد ارتباطات انسانی بوسیله رسانه های اجتماعی و ایجاد کارایی در نیروی کار بوسیله انجام خودکار وظایف به وجود آورده است.
با این وجود، این تغییرات سریع، نگرانی های اخلاقی عمیقی را نیز به وجود می آورد. نگرانی هایی از قبیل وجود تعصب و سوگیری در هوش مصنوعی، کمک به بدتر شدن آب و هوا، تهدید حقوق بشر و موارد دیگر همچون این نگرانی ها هستند.
بگفته یونسکو، این خطرات در رابطه با هوش مصنوعی از قبل، آغاز به ترکیب شدن با نابرابری های موجود کرده اند که منجر به لطمه های بیشتر به گروههای هم اکنون به حاشیه رانده شده اند.
به اعتقاد یونسکو در هیچ زمینه دیگری قطب نمای اخلاقی به اندازه هوش مصنوعی مهم و مرتبط نیست، چونکه این فناوری همه منظوره، شیوه کار، تعامل و زندگی ما را بازتعریف می کند و از نو شکل می دهد. جهان مقرر است با سرعتی تغییر کند که از زمان اختراع ماشین چاپ در شش قرن پیش دیده نشده است. فناوری هوش مصنوعی در خیلی از زمینه ها مزایای عمده ای به همراه دارد، اما بدون ضامن های اخلاقی، خطر بازتولید تعصبات و تبعیض در دنیای واقعی، دامن زدن به شکاف ها و تهدید حقوق و آزادی های اساسی بشر را بدنبال دارد.



تعریف اصول برای اخلاق هوش مصنوعی
در صورتیکه قوانین و پروتکل ها برای مدیریت استفاده از هوش مصنوعی درحال توسعه هستند، جامعه دانشگاهی بدنبال هدایت اخلاق در تحقیقات تجربی و توسعه الگوریتم هاست. سه اصل اساسی وجود دارد که به عنوان راهنمای طراحی آزمایش ها و الگوریتم ها عمل می کند که عبارتند از:
احترام به افراد: این اصل استقلال افراد را به رسمیت می شناسد و انتظارات پژوهشگران را برای صیانت از افراد با خودمختاری کم شده که می تواند به سبب شرایط مختلف مانند بیماری، ناتوانی ذهنی و محدودیت های سنی باشد، حفظ می نماید. این اصل در درجه اول بر ایده توافق و رضایت متمرکز است. افراد باید از خطرات و مزایای بالقوه هر آزمایشی که قسمتی از آن هستند، آگاه باشند و باید بتوانند در هر زمانی قبل و در طول آزمایش در آن شرکت نمایند یا کنار بکشند.
سودمندی: این اصل از اصول اخلاق مراقبت های بهداشتی و پزشکی است، جایی که پزشکان سوگند یاد می کنند به کسی لطمه نرسانند. این اصل را می توان به آسانی در هوش مصنوعی به کار برد، جایی که الگوریتم ها می توانند بر خلاف نیت و قصد انجام کارهای خوب و بهبود یک سیستم خاص، سوگیری ها را در مورد نژاد، جنسیت، گرایش های سیاسی و غیره تقویت نمایند.
عدالت: این اصل به مسائلی مانند انصاف و برابری می پردازد. اینکه چه کسی باید از مزایای آزمایش و یادگیری ماشینی بهره مند شود.



نگرانی های اساسی در مورد هوش مصنوعی
برخی از مسائل وجود دارد که در خط مقدم گفتگوهای اخلاقی پیرامون فناوری های هوش مصنوعی قرار دارند. تعدادی از این موارد عبارتند از:
تکینگی تکنولوژیک: خیلی از پژوهشگران نگران این ایده نیستند که هوش مصنوعی در آینده نزدیک از هوش انسانی پیشی بگیرد، اما باتوجه به توسعه فناوری هایی مانند خودرو های خودران، غیرمنطقی است که فکر نماییم یک خودروی بدون راننده هیچ گاه گرفتار سانحه رانندگی نمی گردد، اما در صورت وقوع حادثه چه کسی مسئول است؟
هنوز چندان درباره ی این موضوعات صحبت نمی گردد، اما این ها انواع بحث های اخلاقی هستند که با توسعه تکنولوژی جدید و خلاقانه هوش مصنوعی درحال بروز هستند.
تاثیر هوش مصنوعی بر مشاغل: در صورتیکه خیلی از تصورات عمومی در مورد هوش مصنوعی به از دست دادن شغل متمرکز است، این نگرانی احیانا باید اصلاح گردد. با ظهور هر تکنولوژی جدید با پتانسیل مخرب بودن و آثار سوء، می بینیم که تقاضای بازار برای نقش های شغلی خاص تغییر می کند. به عنوان مثال، وقتی به صنعت خودرو نگاه می نماییم، خیلی از تولیدکنندگان روی تولید خودرو های الکتریکی تمرکز می کنند تا با ابتکارات سبز هماهنگ شوند. در حقیقت صنعت انرژی از بین نمی رود، اما منبع انرژی از مصرف سوخت به سمت برق می رود.
هوش مصنوعی باید به روشی مشابه بررسی شود. هوش مصنوعی تقاضای مشاغل را به مانند همین مثالی که زده شد، تغییر می دهد. با رشد و تغییر هر روز داده ها، باید افرادی وجود داشته باشند که به مدیریت این سیستم ها کمک کنند. بدین سبب جنبه مهم هوش مصنوعی و تأثیر آن بر بازار کار، کمک به انتقال افراد به این حوزه های جدید تقاضا در بازار خواهد بود.
حریم خصوصی: حریم خصوصی به طور معمول در حوزه حفظ حریم شخصی داده ها، صیانت از اطلاعات و امنیت داده ها مورد بحث قرار می گیرد و این نگرانی ها به سیاست گذاران اجازه داده است در سالهای اخیر قدمهای بیشتری در این زمینه بردارند. به عنوان مثال در سال ۲۰۱۶، قانون GDPR برای صیانت از داده های شخصی افراد در اتحادیه اروپا و منطقه اقتصادی اروپا به وجود آمد و به افراد کنترل بیشتری بر داده های خود داد. در ایالات متحده، ایالت های جداگانه درحال توسعه سیاست هایی مانند قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا(CCPA) هستند که از کسب وکارها می خواهد مصرف کنندگان را در مورد جمع آوری داده های خود آگاه کنند.
این قانون اخیر شرکتها را مجبور کرده است که در نحوه ذخیره و استفاده از داده های شناسایی شخصی(PII) تجدید نظر کنند. در نتیجه، سرمایه گذاری در عرصه امنیت به اولویت فزاینده ای برای کسب وکارها تبدیل گشته است، برای اینکه آنها بدنبال حذف هرگونه لطمه پذیری و فرصت هایی برای نظارت، هک و حملات سایبری هستند.
تعصب و تبعیض: مواردی از تعصب و تبعیض در برخی از سیستم های هوش مصنوعی، سوالات اخلاقی زیادی را در مورد استفاده از این فنآوری به وجود آورده است. چگونه می توانیم در مقابل سوگیری و تبعیض هوش مصنوعی از خود محافظت نماییم، در صورتیکه خودِ داده های آموزشی می توانند خودرا در معرض سوگیری قرار دهند؟
نمونه هایی از وجود تبعیض و تعصب در سیستم های هوش مصنوعی مورد استفاده شرکت های بزرگ فناوری دیده شده است و همین طور می توان آنرا در برخی از برنامه های کاربردی از نرم افزارهای تشخیص چهره گرفته تا الگوریتم های رسانه های اجتماعی یافت.
در مجموع، همچنین که کسب وکارها از خطرات هوش مصنوعی آگاه تر می شوند، بحث رعایت اخلاق و ارزش ها توسط هوش مصنوعی نیز فعال تر می شود.
مسئولیت: از آنجا که قانون قابل توجهی برای تنظیم شیوه های استفاده از هوش مصنوعی وجود ندارد، هیچ مکانیسم اجرائی واقعی برای اطمینان از اجرای اخلاقی هوش مصنوعی وجود ندارد. برای پر کردن این شکاف، چارچوب های اخلاقی به عنوان قسمتی از همکاری بین اخلاق شناسان و پژوهشگران برای کنترل ساخت و توزیع مدلهای هوش مصنوعی در جامعه پدیدار شده اند. با اینحال آنها هم اکنون فقط برای راهنمایی هستند و ضمانت اجرائی ندارند.



نحوه ایجاد اخلاق هوش مصنوعی
از آنجا که هوش مصنوعی ماشین های اخلاق گرایی را به وجود نیاورده است، تیم های پژوهشی آغاز به جمع آوری چارچوب ها و مفهومی برای حل تعدادی از نگرانی های اخلاقی فعلی و شکل دادن به آینده ی کاری دراین زمینه کرده اند. در صورتیکه هر روز موارد بیشتری به این دستورالعمل ها تزریق می شود، در مورد ترکیب آنها در موارد زیر توافق نظر وجود دارد:
حاکمیت: شرکتها می توانند از ساختار سازمانی موجود خود برای مساعدت با مدیریت هوش مصنوعی اخلاقی بهره گیرند.
قابلیت توضیح: از مدلهای یادگیری ماشینی خصوصاً مدلهای یادگیری عمیق، اغلب به عنوان «مدل های جعبه سیاه» یاد می شود، برای اینکه به طور معمول معین نیست که یک مدل چگونه به یک تصمیم خاص می رسد. قابلیت توضیح بدنبال حل این ابهام در مورد ایجاد یک مدل و خروجی های آن با بوجودآوردن یک توضیح قابل فهم انسانی است که منطق ماشین را بیان می کند.
این نوع شفافیت برای ایجاد اعتماد با سیستم های هوش مصنوعی مهمست تا اطمینان حاصل شود که افراد درک کنند یک مدل چگونه و چرا به یک نقطه تصمیم گیری می رسد. اگر بتوانیم دلیل آنرا بهتر درک نماییم، برای جلوگیری از خطرات هوش مصنوعی، مانند تعصب و تبعیض مجهزتر خواهیم شد.
دستیابی به هوش مصنوعی اخلاقی بدون شک برای موفقیت آن مهم خواهد بود و توجه به این نکته مهمست که هوش مصنوعی پتانسیل فوق العاده ای برای تأثیرگذاری بر جامعه دارد.
شرکت آی بی ام مجموعه ای از مناطق تمرکز را برای هدایت و پذیرش مسئولانه فناوری های هوش مصنوعی به وجود آورده است که شامل موارد زیر است:
توضیح پذیری: یک سیستم هوش مصنوعی باید شفاف باشد.
انصاف: انصاف به رفتار عادلانه افراد یا گروه هایی از افراد ازطریق یک سیستم هوش مصنوعی اشاره دارد. وقتی هوش مصنوعی به درستی تنظیم شود، می تواند به انسان در انتخاب های منصفانه تر و مقابله با تعصبات انسانی کمک نماید.
استحکام: سیستم های مجهز به هوش مصنوعی باید بطور فعال در مقابل حملات متخاصم، به حداقل رساندن خطرات امنیتی و ایجاد اطمینان در نتایج سیستم محافظت شوند.
شفافیت: برای تقویت اعتماد، کاربران باید بتوانند نحوه عملکرد سرویس را ببینند، عملکرد آنرا ارزیابی کنند و نقاط قوت و محدودیت های آنرا بشناسند.
حریم خصوصی: سیستم های هوش مصنوعی باید حریم خصوصی و حقوق مصرف کنندگان را در اولویت قرار دهند و از آن محافظت کنند و به کاربران در مورد روش استفاده و صیانت از داده های شخصی آنها اطمینان صریح عرضه کنند.

سخن پایانی
امروزه از آنجا که افراد از همه طبقات جامعه شاهد تاثیر هوش مصنوعی در زندگی و شغل خود هستند، اخلاق هوش مصنوعی برای بیشتر مردم به بخش مهمی از سواد هوش مصنوعی تبدیل گشته است. اخلاق هوش مصنوعی هم اکنون در بعضی دبیرستان ها و همین طور در دوره های هوش مصنوعی در دوره های تجاری حرفه ای تدریس می شود و با رایج شدن قوانینی مانند قانون هوش مصنوعی، می توان انتظار داشت که دانش اخلاق هوش مصنوعی به جریان اصلی تبدیل گردد.



1402/04/25
12:43:05
5.0/5
286
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۱ بعلاوه ۴
madigital.ir - حقوق مادی و معنوی سایت ما دیجیتال محفوظ است

ما دیجیتال

اخبار دیجیتال و فناوری اطلاعات