ما به عصر ارتباط دیجیتال و هوش مصنوعی وارد شدهایم. الگوریتمهای پیچیده به طور فزایندهای در تصمیمگیریهای اساسی ما استفاده میشوند. بسیاری از این تصمیمگیریها پاسخ یکتایی ندارند. چه کسی باید استخدام شود، اخراج شود یا ترفیع بگیرد؟ چه نوع اخباری باید برای چه گروه از افراد نمایش داده شود؟ اطلاعات به روز شده کدام یک از دوستانتان برای شما به نمایش درآید؟ با افزایش بهکارگیری هوش مصنوعی در این سامانهها ما حتی متوجه نخواهیم شد هوش مصنوعی دقیقا چگونه درباره این موضوعها تصمیمگیری میکند. زینب توفکسی (Zeynep Tufekci) فعال در زمینه جامعهشناسی فناوری، در سخنرانی TED درباره چالشهای هوش مصنوعی وپایبندی به ارزشهای اخلاقی در این مسیر توضیح میدهد. با مجله فناوریهای توانافزا و پوشیدنی همراه باشید.
زینب توفکسی (Zeynep Tufekci) فعال در زمینه جامعهشناسی فناوری از نویسندگان روزنامه نیویورک تایمز و عضو هیئتعلمی مرکز برکمن کلاین هاروارد در شاخه اینترنت و جامعه است. کتاب او به نام «توییتر و گاز اشکآور: قدرت و شکنندگی اعتراضهای شبکهای (Twitter and Tear Gas: The Power and Fragility of Networked Protest)» در سال ۲۰۱۷ به چاپ خواهد رسید. کتاب بعدی او نیز درباره الگوریتمهایی است که قادرند مشاهده کنند و قضاوت کنند.
او در سخنرانی TED توضیح میدهد که چطور هوش مصنوعی در تطبیق با الگوهای خطای انسانی شکست میخورد. «ما نمیتوانیم مسئولیتهای خود را به ماشینها بسپاریم بلکه باید هرچه بیشتر بر اصول اخلاقی و انسانی پایبند باشیم.» او پرسشهای مهمی درباره جامعه و زندگی مطرح میکند. با رشد و پیشرفت هوش مصنوعی فهم و کنترل آن دشوار خواهد شد.
سامانههای محاسباتی وجود دارد که حالت احساسی و حتی دروغ را از طریق تحلیل صورت انسان می تواند بفهمد. امروزه، دانشمندان در حال ساخت یک سیستم عامل هستند که آنچه یک میلیارد آدم هر روز میبینند را کنترل میکند. آنها خودروهایی را ساختند که میتوانند تصمیم بگیرند که چه کسی را زیر بگیرند. آنها حتی در حال ساخت ماشینهایی هستند که ممکن است انسانها را در جنگ بکشد. همه این موارد یعنی سقوط اخلاق.
ما پرسشهایی شبیه این موارد را میپرسیم: شرکت چه کسی را باید استخدام کند؟ کدام بهروزرسانی از کدام دوست باید نشان داده شود؟ کدام متهم بیشتر شبیه خلافکارهاست؟ کدام بخش خبرها یا فیلم باید به مردم توصیه شود؟ از هوش مصنوعی در پاسخگویی به این پرسشها استفاده میکنیم. اما اشتباهات احتمالی سامانهها و قدرت آنها را در انتخاب پاسخ درنظر نمیگیریم.
برای انجام کارهای پیچیدهتر، نرم افزارهای ما بیشتر قدرتمند میشوند. در دهه گذشته الگوریتمهای پیچیده پیشرفتهای زیادی کردهاند. آنها میتوانند صورت انسان را شناسایی کنند. دست خط را تشخیص بدهند. تقلب در کارت اعتباری را کشف کنند. اسپمهای ایمیل را مسدود کنند. زبانها را ترجمه کنند. تومورها را در تصاویر پزشکی تشخیص دهند و حتی در بازیهای شطرنج و گو (Go) انسان را مغلوب کنند.
بیشتر این پیشرفتها از روشی به نام «یادگیری ماشین» به نتیجه رسیدهاند. یادگیری ماشین با برنامه نویسی سنتی متفاوت هست. در برنامهنویسی سنتی به رایانه جزئیات دقیق دستورها را میدهید. درحالیکه در یادگیری ماشین، اطلاعات زیاد بدون ساختاری به سامانه موردنظر میدهید و سامانه به مرور زمان از اطلاعات دریافتی خود یاد میگیرد. در واقع قدرت سامانه هوش مصنوعی، همین است. این روند به دادن دستورالعمل به رایانه شباهتی ندارد. بلکه مانند این است که به تعدادی ماشین آموزش داده میشود.
این یک مشکل بزرگ است اگر سامانه هوش مصنوعی مطالب را اشتباه یاد بگیرد. یک الگوریتم استخدام را تصور کنید. سامانهای که مردم را با استفاده از روش یادگیری ماشین استخدام میکند. این سامانه بر اساس اطلاعات کارمندان قبلی آموزش دیده شده است و دستور دارد که نیروی کار با بهرهوری بالا را پیدا کند و استخدام کند. در حالی که استخدام توسط انسان میتواند غرضورزانه باشد. در سامانههای هوشمند استخدام جنسیت و نژاد نادیده گرفته میشود که ویژگی خیلی خوبی است.
مسئله به همینجا ختم نمیشود. اخیرا، سامانههای محاسباتی میتوانند از همه اطلاعات جزیی شما از طریق اطلاعات دیجیتالی شما آگاه شوند. حتی اگر شما آن اطلاعات را فاش نکرده باشید. سامانههای محاسباتی به جنسیت، ویژگیهای شخصی، گرایش سیاسی شما پی میبرند. آنها قدرت پیشبینی با دقت بالایی را دارند.
اخیرا یک سامانه محاسباتی توسعه پیدا کرده است که شانس افسردگی را بعد از وضع حمل پیشبینی میکند. این پیشبینی با کمک اطلاعات رسانههای اجتماعی انجام میشود. نتیجه این پژوهش بسیار هیجانانگیز است. سامانه میتواند احتمال افسردگی را ماههای قبل از شروع علائم بیماری پیشبینی کند. زمانیکه هیچ علائمی از بیماری نیست. درواقع سامانههای هوش مصنوعی و یادگیری ماشین مانند جعبه سیاهی هستند که قدرت پیشگویی دارند. در حالی که شما متوجه نمیشوید ماشین چگونه پیشبینی میکند.
مسئله دیگر این است این سامانهها اغلب روی اطلاعات بهدست آمده از کارهای ما آموزش داده میشوند. آنها فقط میتوانند تمایلات ما را منعکس کنند و آن را تقویت کرده و دوباره به ما نشان دهند. به این جعبههای سیاه نباید قدرت غیر قابل کنترل داده شود.
مطمئنا باید این سامانهها بررسی و باربینی شوند اما این کار تمام مشکلات ما را حل نمیکند. الگوریتم قدرتمند اخبار فیسبوک را در نظر بگیرید. فیسبوک همه چیز را رتبه بندی میکند و تصمیم میگیرد که چه چیزی از همه دوستان و همه صفحههایی که شما دنبال میکنید به شما نشان دهد.
در آگوست سال ۲۰۱۴ در شهر فرگوست (Ferguson) معترضان بعد از کشتن یک نوجوان آفریقایی- آمریکایی به وسیله یک پلیس سفید پوست شورش کردند. خبرهای معترضان در توییتر بسیاری از افراد قابل مشاهده بود اما در فیسبوک اینگونه نبود. فیسبوک تمایل دارد شما را تحت کنترل الگوریتمهای خود نگه دارد. بر اساس الگوریتم فیسبوک خبرهایی که تعداد لایک و کامنت کمتری دارند به تعداد افراد کمتری نشان داده میشوند. بنابراین بسیاری در فیسبوک نتوانستند این خبر را ببینند. در عوض الگوریتم فیسبوک خبر چالش سطل آب یخ را برجسته کرده بود.
ماشین هوشمند میتواند اشتباه کند درجاهایی که هیچ شباهتی به الگوی خطای انسانها ندارد. در جاهایی که ما انتظار و آمادگی برای آن نداریم. اتفاق بسیار بدی خواهد بود اگر کسی نتواند شغلی که شایسته آن است را بگیرد. بدتر از آن زمانی است که ماشین اشتباه کند و آن فرد شغل را نتواند بگیرد.
ما باید الگوریتمها را با بررسی دقیق و موشکافانه توسعه دهیم. پیچیدگی امور انسانی فراتر از الگوریتمها است. باید از الگوریتمها و هوش مصنوعی برای تصمیمگیری بهتر استفاده کنیم. اما هوش مصنوعی نمیتواند از اشتباهات احتمالی جلوگیری کند. ما باید مسئولیت نتیجه را خود بر عهده بگیریم و بر اساس چارچوب جلو برویم. این بدان معناست که باید محکمتر ارزشها و اخلاق انسانی را نگه داریم.
در همین زمینه بخوانیم:
>>هوش مصنوعی و چالش های اخلاقی آن
>>سخنرانی TED: اختراعات باورنکردنی هوش مصنوعی ادراکی
منبع: TED
«استفاده و بازنشر مطالب تنها با ذکر لینک منبع و نام (مجله فناوریهای توانافزا و پوشیدنی) مجاز است»