مسئولیت اجتماعی انسان در عصر هوش مصنوعی

منبع: شرکت مخابرات ایران
وقتی در مورد هوش مصنوعی حرف زده می‌شود، هراسی در لابه‌لای مکالمه‌ها از تصور آینده‌ای ویران احساس می‌شود؛ آینده‌ای که در آن ربات‌ها غلبه دارند، مشاغل انسان‌ها را گرفته‌اند و خودسرانه عمل می‌کنند.
 
 
افرادی مثل استفان هاوکینگ و الون ماسک پیش‌ازاین هشدارهایی در مورد پتانسیل خطرناک هوش مصنوعی داده‌اند. منتقدان نیز به تهدیدهایی اشاره‌کرده‌اند.
این ترس در کنار افزایش سرمایه‌گذاری‌ها روی هوش مصنوعی و پیشرفت شرکت‌ها در این زمینه افزایش‌یافته و سؤالاتی را در مورد مسئولیت بشر در این زمینه، ایجاد کرده است. این سؤالات بیشتر حوزه اخلاق و مسئولیت اجتماعی سازمان‌ها را دربرمی‌گیرند.
 
 
میزان استفاده از AI هرسال بیشتر از پیش می‌شود و این فناوری هرقدر که می‌گذرد، ازنظر کاربرد و استفاده قدرتمندتر، مستقل‌تر و گسترده‌تر می‌شود. مسئله حل‌نشده در این میان، قابلیت بالقوه خطرناک هوش مصنوعی است که اهمیت زیادی دارد؛ تعصب، تصمیم‌گیری ضعیف، شفافیت کم، کاهش مشاغل و استفاده بدخواهانه از هوش مصنوعی (مثل سلاح‌ها) ازجمله ریسک‌های این فناوری به شمار می‌رود. در ادامه به روندهای مهم در زمینه اخلاق هوش مصنوعی و مسئولیت انسانی اشاره می‌کنیم.
 
 
 
تبعیض، تعصب و نابرابری
 
 
یکی از ریسک‌های هوش مصنوعی که اخیراً نیز با الگوریتم‌های ارائه پیشنهاد آمازون و سیستم‌های تشخیص چهره پلیس سروصدای زیادی کرده، این است که تعصب یا پیش‌فرض‌های انسانی وارد الگوریتم هوش انسانی شود. درواقع، مسئله اصلی، وجهه انسانی دارد؛ برنامه‌نویس که الگوریتم‌ها را برای ماشین مشخص می‌کند، پیش‌فرض‌هایی دارد و به‌این‌ترتیب این پیش‌فرض‌ها وارد ابزار هوش مصنوعی می‌شوند.
 
امروزه یادگیری ماشین و شبکه‌های عصبی عمیق در بین خدماتی هستند که می‌توانند تصاویر را شناسایی کنند و الگوها را با استفاده از داده‌ها تشخیص دهند؛ اما حتی پیشرفته‌ترین نرم‌افزارهای تشخیص چهره نیز بر اساس رنگ پوست افراد عمل می‌کنند.
 
 سال گذشته، ACLU آزمایشی به روی نرم‌افزار تشخیص چهره آمازون انجام داد که در آن ۴۰ درصد از چهره اکثر افرادی که به‌درستی شناسایی نشده بود، به افراد سیاه‌پوست تعلق داشت. آمازون با بیش از ۴۰۰ شعبه از نیروهای پلیس آمریکا شراکت دارد و این نرم‌افزار همچنان در این دپارتمان مورداستفاده قرار می‌گیرد.
 
 
Hodvh مؤسسه فناوری ماساچوست (MIT) اعلام کرده که درحال‌توسعه یک الگوریتم است که به‌طور خودکار داده‌های آموزشی را برای زدودن تبعیض نژادی هوش مصنوعی در تشخیص چهره فراهم و اطمینان حاصل می‌کند که محدوده گسترده‌ای از انسان‌ها را در بر گیرد.
 
مقررات و اخلاق‌گرایی
 
 
درعین‌حال که شرکت‌های بزرگ در استفاده از هوش مصنوعی عجله زیادی دارند و با همدیگر رقابت می‌کنند، تحلیلگران و سیاست‌گذاران نیاز به امنیت بیشتر را احساس کرده‌اند. کمیته‌ها در حال بررسی مسئله‌اند، اما هنوز مقررات دقیقی در زمینه هوش مصنوعی وضع نشده است. برخی تحلیلگران می‌گویند ازآنجاکه هوش مصنوعی به بلوغ کامل نرسیده، هنوز نمی‌شود مقرراتی را در مورد آن وضع کرد. واضح‌ترین مقررات تثبیت‌شده، مقررات حفاظت از داده شخصی (GDRP)‌در اروپا است؛ رگولاتورهای اروپایی شرکت‌ها را ملزم کرده‌اند که در مورد تصمیم‌گیری‌های خود در زمینه استفاده از داده‌ها با مشتریان شفاف باشند. تطبیق با مقررات به شفافیت بیشتر کمک می‌کند.
 
در این میان، دولت‌ها، شرکت‌ها و سیاست‌گذاران فناوری راهنمایی‌ها و دستورالعمل‌های مختلفی درزمینه اخلاق داده منتشر کردند. این اواخر طیف وسیعی از اخلاق‌شناسان داده شروع به بحث‌های انضمامی در حوزه اخلاقی کرده‌اند. به نظر بسیاری از صاحب‌نظران، اخلاق عمومی توسط قانون هدایت می‌شود. 
 
کسی که این قواعد را نقض کند پیامدهایی مثل از دست دادن شغل و جریمه‌های کیفری در انتظارش است. از ویژگی‌های اخلاق کاربردی می‌توان به مشخص بودن آن‌ها برای موقعیت‌های خاص، حلقه‌های بازخوردی داشتن، دستورالعمل‌های در دسترس، نظارت دقیق و پیامدها در صورت نقض آن‌ها اشاره کرد. از سوی دیگر تناقض موضوع این است که بسیار خرده می‌گیرند بهبود هوش مصنوعی با توسعه بیشتر هوش مصنوعی شکل می‌گیرد.
 
 
امنیت
 
 
حریم خصوصی مشتریان و امنیت داده‌ها و مسئله «اخلاق دیجیتال و حریم خصوصی» یکی از ده موضوعات برتر پژوهشی گارتنر در سال ۲۰۱۹ بوده است.
 
یکی از نقاط قوت هوش مصنوعی و یادگیری ماشینی توانایی آن در بررسی سریع حجم زیادی از داده است؛ وظیفه‌ای که انجامش توسط نیروی انسانی زمان‌بر است؛ اما سؤالی که ایجادشده این است که داده‌های جمع‌آوری‌شده اولاً تا چه اندازه‌ای امن هستند و دوم اینکه از این داده‌ها برای چه مقاصدی استفاده می‌شود؟
 
برای نمونه، استراق سمع فناوری‌های هوش مصنوعی خبری که اخیراً سروصدای زیادی کرد، بیشتر در مورد دستیاران صوتی بود. دستیاران مجازی الکسا (Alexa) و سیری (Siri) امروزه به‌واسطه گوشی‌ها در همه‌جا حضور دارند؛ از اتومبیل‌ها گرفته تا جیب‌های شلوار و آشپزخانه‌هایمان. هدف حضور این دستیاران این است که دستورات صوتی را پیروی کنند، اما درهرحال بخشی از مکالمه‌های ضبط‌شده افراد با این دستیاران توسط انسان‌ها گوش‌داده می‌شود. نه آمازون، نه گوگل و نه اپل انکار نکرده‌اند که فایل‌های صوتی ضبط‌شده، استراق سمع می‌شود. 
 
 
به گزارش گاردین، اپل مدعی است که کمتر از یک درصد از فرمان‌های صوتی، توسط کارکنان اپل بررسی می‌شوند. در این میان مسئله مهم این است که کاربران نمی‌دانند دقیقاً چه بخشی از زندگی‌شان از سوی غریبه‌ها شنیده می‌شود. در بین این فایل‌ها، مکالمه‌های مربوط به کسب‌وکار، بیماری‌ها و غیره وجود دارد.
 
 
سوءنیت و اعمال شرورانه
 
 
یکی از مسائلی که امروز بسیار به آن اشاره می‌شود، سوءاستفاده‌هایی است که می‌توان از هوش مصنوعی کرد؛ این سوءاستفاده‌ها می‌تواند از جانب دولت‌ها یا موسسه‌های خصوصی باشد. پیش‌بینی می‌شود که بازار محصولات مرتبط باهوش مصنوعی تا سال ۲۰۲۵ به ارزش بیش از ۱۰۰ میلیارد دلار برسد. آیا چنین سهمی از بازار و درآمد باعث خواهد شد افراد بیشتری با سوءنیت سراغ این فناوری بروند؟
 
نمی‌توان انکار کرد که فناوری، درعین‌حال که به نفع بشر است و کارهای او را در بسیاری از حوزه‌ها به‌ویژه کارهای دستی، تسهیل کرده است، صرفاً همین جنبه را دارد. همین فناوری را می‌توان در توسعه سلاح‌های کشتارجمعی، دستکاری محصولات زراعی و غیره مورداستفاده قرارداد.
 
 
تأثیر بر مشاغل
 
 
فناوری‌های اتوماسیون، درعین‌حال که بهره‌وری و رشد را افزایش می‌دهند، تغییرات زیادی را در مقیاس وسیع در حوزه نیروی کار ایجاد می‌کنند و بر بخش‌های متعدد، ترکیب مشاغل، مهارت‌های موردنیاز و دستمزدها تأثیر می‌گذارند. نیمی از فعالیت‌های فعلی که کارکنان در اروپا انجام می‌دهند می‌تواند خودکارسازی شود.
 
تخمین زده می‌شود که در پنج اقتصاد بزرگ اروپا _ فرانسه، آلمان، ایتالیا، اسپانیا و بریتانیا _ حدود ۹/۱ هزار میلیارد دلار صرف دستمزدها می‌شود و ۶۲ میلیون کارگر مشاغلی دارند که ازنظر فنی می‌توان آن‌ها را خودکار کرد.
 
درحالی‌که اتوماسیون تقریباً بر همه مشاغل تأثیر خواهد گذاشت، تنها پنج درصد از فعالیت‌ها به‌طور کامل با استفاده از فناوری‌های فعلی خودکارسازی شده‌اند. بااین‌حال ما متوجه شدیم که حدود ۳۰ درصد فعالیت‌ها در ۶۰ درصد از همه مشاغل می‌توانند خودکارسازی شوند.
 
هوش مصنوعی اخلاق محور
 
 
مبحثی که در چند سال اخیر در حوزه میان‌رشته‌ای، پرسش‌های زیادی را مطرح کرده است، اخلاق هوش مصنوعی است. هوش مصنوعی توانایی این را دارد که ماشین‌های خودران را هدایت کند؛ اما سؤالی که در حیطه اخلاق مطرح می‌شود این است که هوش مصنوعی چگونه تصمیم خواهد گرفت به یک درخت بکوبد و ماشین آسیب بیشتری ببیند یا به کودکی که دارد از خیابان رد می‌شود؟ آیا انسان می‌تواند انتخاب‌های اخلاقی خود را به صفر و یک‌های مطلق، بیاموزد؟
 درواقع، چالش بر سر ترکیب الگوریتم‌ها و تکنیک‌هایی است که به هوش مصنوعی امکان تصمیم‌گیری در زمینه مشکلات اخلاقی می‌دهد؛ مثلاً قربانی کردن یک نفر به‌جای نجات چند نفر یا برعکس.
 
 
 
مسئولیت اجتماعی انسان‌ها
 
 
آشکار است که قرار نیست فناوری‌ها خود را کنترل کنند؛ انسان‌ها مسئول این فناوری‌ها و آسیب‌های بالقوه آن‌ها هستند.
 
بر اساس گزارش دانشگاه آکسفورد در سال ۲۰۱۹ حدود ۸۲ درصد از آمریکایی‌ها معتقدند هوش مصنوعی و ربات‌ها باید به‌دقت مدیریت شوند. آیا ممکن است هوش مصنوعی به‌اندازه ذهن انسان پیشرفته شود و اگر بله چه اتفاقی رخ خواهد داد؟ مدیران ارشد تحلیل یا مدیران ارشد داده باید بر آموزش هوش مصنوعی نظارت کنند تا اطمینان یابند در تصمیم‌های هوش مصنوعی از آسیب جلوگیری می‌شود. 
 
 
علاوه بر این هوش مصنوعی باید طوری باشد که بتواند در کنار شناسایی هک، کلاه‌برداری و استفاده غلط از داده، با مشکلات انسانی سروکار داشته باشد و عدالت، مسئولیت‌پذیری، شفافیت و آسایش را اولویت قرار دهد.
 
هوش مصنوعی همان‌قدر که قدرت دارد آینده روشن‌تری را برای انسان رقم بزند، اگر توسعه آن با توجه به ارزش‌های اخلاقی و انسانی نباشد، می‌تواند بدل به امری شرورانه شود.
 
از سوی دیگر، مسئولیت اجتماعی و هوش مصنوعی اخلاقی مهم‌ترین مزیت رقابتی را برای شرکت‌ها فراهم می‌آورند. توسعه مسئولانه اعتبار برند یک شرکت را تقویت می‌کند و روابطش با مشتریان یا کاربران را بهبود می‌بخشد و همچنین اعتماد آن‌ها را افزایش می‌دهد. توسعه مسئولانه تهدیدها را برای کسب‌وکارها کاهش می‌دهد و عواقب نامطلوب را تا جای ممکن، حذف می‌کند. 
 
یکی از ابزارها نوآوری و تحقیق مسئولانه (PRI) است که می‌تواند راهبردهای اخلاقی را وارد سازمان‌ها کند. این رویکرد استراتژیک که اتحادیه اروپا در سال‌های اخیر آن را توسعه داده است، سعی دارد تهدیدهای اجتماعی ناشی از پیشرفت‌های علم و فناوری را کاهش دهد.

URL: https://www.ictna.ir/id/108077/

Code: 108077