تاریخ : 1397,دوشنبه 27 فروردين18:00
کد خبر : 263344 - سرویس خبری : فناوری اطلاعات

فناوری‌های عصبی و لزوم احترام به حریم شخصی؛

چهار اولویت اخلاقی در رابطه با فناوری‌های عصبی و هوش مصنوعی

هوش مصنوعی و رابط‌های مغز ـ کامپیوتر باید به حریم شخصی، هویت و برابری انسان‌ها احترام بگذارند و از آن‌ها محافظت کنند. این‌ها گفته‌های رافائل یوسته استاد علوم زیست‌شناسی دانشگاه کلمبیا واقع در نیویورک، سارا گوئرینگ استاد دانشکده فلسفه دانشگاه واشنگتن و همکاران آن‌ها است.

به گزارش خبرنگار فناوری اطلاعات «خبرنامه دانشجویان ایران»؛ این سناریو را در نظر بگیرید. یک فرد معلول در یک دوره آزمایش بالینی مربوط به رابط مغز ـ کامپیوتر شرکت می‌کند. کامپیوتر به تراشه‌ای که در مغز وی قرار دارد متصل بوده و به‌گونه‌ای آموزش می‌بیند که بتواند تمام فعالیت‌های عصبی را تفسیر کند. کامپیوتر فرمان‌هایی را برای حرکت بازوی روباتیک صادر می‌کند. فرد شرکت‌کننده ممکن است بعد از مدتی خسته و کلافه شود. بعد از آن، دست روباتیک وی فنجانی را که یکی از اعضای تیم تحقیق به او داده می‌شکند و به آن شخص آسیب می‌رساند. ممکن است این اتفاق ناشی از یک ایراد فنی در سیستم کار دستگاه باشد، اما آن شخص با خود فکر می‌کند که شاید عصبانیت وی در این حادثه نقش داشته است. این سناریو کاملاً فرضی است، اما بیان‌کننده برخی چالش‌هایی است که ممکن است جامعه ما در آینده با آن روبه‌رو شود.

در حال حاضر، فناوری BCI بیشتر روی نتایج درمانی مانند کمک به بیمارانی که از آسیب‌های نخاعی رنج می‌برند توجه دارد. ممکن است چندین سال طول بکشد تا BCI و سایر فناوری‌های عصبی به بخشی از زندگی عادی و روزمره انسان‌ها تبدیل شوند. اما پیشرفت‌هایی که در این حوزه‌ها صورت می‌گیرد، نشان‌دهنده آن است که در مسیر درست قرار داریم.

برخی از این پیشرفت‌ها می‌توانند انقلاب بزرگی در نحوه درمان بیماری‌ها از آسیب‌های مغزی و فلج شدن گرفته تا صرع و اسکیزوفرنی ایجاد کنند. اما این فناوری‌ها می‌توانند باعث تشدید اوضاع نابسامان نابرابری‌های اجتماعی شوند و فرصت‌های خوبی را در اختیار شرکت‌های بزرگ، هکرها و به طور کل افرادی قرار دهند که قصد آسیب رساندن به‌ دیگران را دارند. حال زمان آن است که تمام این جوانب به ‌دقت مورد بررسی قرار گیرند.

به ‌همین دلیل، پژوهشگران چهار ناحیه‌ای که بیشترین نگرانی درخصوص آن‌ها وجود دارد را به دقت مورد بررسی قرار داده‌اند. حریم شخصی و رضایتمندی، هویت، تقویت‌کننده‌ها و تعصبات چهار بخشی هستند که پژوهشگران درخصوص ورود بدون برنامه و بدون نظارت به این بخش‌ها هشدار داده‌اند. ملت‌ها و انسان‌هایی که دارای مذاهب، اصول اخلاقی و پیش‌زمینه‌های اجتماعی ـ اقتصادی مختلف هستند، نیازها و دیدگاه‌های متفاوتی از یکدیگر دارند.

سرمایه‌گذاری‌های هوشمند
بسیاری از ثروتمندترین سرمایه‌گذاران دنیا بر روی تعامل بین علوم اعصاب و AI برنامه‌ریزی ویژه‌ای کرده‌اند. بسیاری از شرکت‌ها مانند کرنل و استارت‌آپ ایلان ماسک به‌نام Neuralink در حال کار روی طراحی و ساخت دستگاه‌هایی هستند که قادر به «خواندن» فعالیت‌های مغزی انسان و نوشتن اطلاعات عصبی در داخل مغز هستند. بر اساس آخرین تخمین‌ها، میزان سرمایه‌گذاری روی فناوری‌های عصبی حدود 100 میلیون دلار در سال برآورد شده و این رقم با سرعت زیادی رو به ‌رشد است.

شکل 1

سرمایه‌گذاران بخش‌های دیگر نیز به‌ این صنعت روی آورده‌اند. از سال 2013 به بعد در امریکا، بیشتر از 500 میلیون دلار سرمایه دولتی صرف توسعه فناوری عصبی تحت برنامه US BRAIN شده است.

درست است که امروزه قابلیت‌های چشمگیر و قدرتمندی در اختیار داریم، اما باز هم آزمایش‌های زیادی در دانشگاه‌ها و آزمایشگاه‌های امریکا در حال انجام است. به‌ عنوان مثال، محققان دانشگاه دوک واقع در دورهام کارولینای شمالی نشان دادند سه میمونی که الکترودهایی درون مغز آن‌ها کاشته شده بود، موفق شدند در قالب یک شبکه مغزی یک آواتار را به ‌حرکت درآورند. از طرف دیگر، گوگل، آی‌بی‌ام، مایکروسافت، فیس‌بوک، اپل و بسیاری از استارت‌آپ‌های فعال در این شاخه مشغول ساخت پیشرفته‌ترین شبکه‌های عصبی مصنوعی هستند که قادر به پیشی گرفتن از انسان‌ها در انجام وظایف محوله هستند.

چهار نگرانی عمده
فناوری‌های عصبی برای موفقیت در بازار مصرفی به دستگاه‌هایی نیاز دارند که حالت تهاجمی نداشته باشند، کمترین خطر را داشته باشند و هزینه به‌کارگیری آن‌ها نسبت به فرآیندهای کنونی جراحی مغز و اعصاب بسیار پایین باشد. شرکت‌هایی که در حال توسعه دستگاه‌های خود هستند، باید در قبال محصولاتشان مسئول‌پذیر باشند و از استانداردهایی مشخص، بهترین آزمایش‌ها و قوانین متعارف اخلاقی پیروی کنند. اما چهار نگرانی عمده‌ای که در این زمینه وجود دارد و متخصصان این حوزه را کاملاً برآشفته است چه عواملی هستند؟ با اینکه بحث اصلی در این مقاله در ارتباط با فناوری‌های عصبی است، اما می‌توان همین دغدغه‌ها را در ارتباط با هوش مصنوعی نیز داشت.

1- حریم شخصی و رضایتمندی
ما امروزه این توانایی را در اختیار داریم تا طیف بسیار گسترده‌ای از اطلاعات را تنها از طریق ردپای دیجیتالی برجای مانده از کاربران جمع‌آوری کنیم. محققان MIT در سال 2015 کشف کردند یک تحلیل دقیق و عالی از رفتار افراد که از طریق الگوهای تایپ روی کیبورد دستگاه‌هایشان مشخص می‌شود، می‌تواند به تشخیص زودهنگام بیماری پارکینسون منجر شود. بر اساس مطالعه‌ای که در سال 2017 انجام شد، بررسی الگوهای حرکتی می‌تواند راه را برای تشخیص زودهنگام اختلالات شناختی ناشی از بیماری آلزایمر هموار سازد.

شکل 2

الگوریتم‌هایی که برای تبلیغات هدفمند، محاسبه حق بیمه یا یافتن شرکای احتمالی مورد استفاده قرار می‌گیرند، اگر با اطلاعاتی تغذیه شوند که از الگوهای عصبی افراد جمع‌آوری شده‌اند، قدرت بسیار بیشتری خواهند داشت. البته موضوعی که در این زمینه باید به‌وضوح روشن شود این است که به انسان‌ها این حق انتخاب داده شود تا اجازه دهند داده‌های عصبی درباره خودشان و فعالیت‌هایی که انجام می‌دهند از سوی سازمان‌ها جمع‌آوری شود. با وجود این، تجربه نشان داده است که انسان‌ها آمادگی سریعی دارند تا داده‌های مربوط به حریم شخصی خود را در اختیار سرویس‌های تجاری همچون شبکه‌های اجتماعی، تفریحی و سرگرمی قرار دهند. در کنار این روش یعنی به‌اشتراک‌گذاری از روی میل داده‌ها، حجم عظیمی از داده‌ها نیز از طریق جست‌وجوهای اینترنتی و همچنین نظارت بر دستگاه‌های پوشیدنی که در زمینه تناسب اندام و مواردی از این دست به کار گرفته می‌شوند به‌ دست می‌آید. این تکنیک‌ها بیشتر زمان‌هایی مورد استفاده قرار می‌گیرد که افراد حاضر نیستند اطلاعاتی در ارتباط با خود را با دیگران به اشتراک قرار دهند. به همین دلیل است که پژوهشگران پیشنهاد داده‌اند در زمینه فروش، انتقال تجاری و استفاده از داده‌ها به‌ویژه داده‌های عصبی قوانین سختی وضع شود.

یکی دیگر از کارهایی که می‌توان انجام داد محدود کردن پردازش‌های متمرکز روی داده‌های عصبی است. استفاده از فناوری‌هایی که به ‌طور ویژه برای محافظت از داده‌های کاربران طراحی شده‌اند می‌تواند به این مسئله کمک کند. درنهایت اگر از کدهای متن‌ باز و همچنین فرمت‌ داده‌ای باز در تعامل با سامانه‌های نظارت عصبی استفاده می‌کنیم، شفافیت بیش از پیش افزایش پیدا می‌کند. به‌ طوری که همه خواهیم دانست چه اطلاعاتی به‌شکل خصوصی حفظ شده‌اند و چه اطلاعاتی انتقال پیدا کرده‌اند.

2- هویت و قدرت انتخاب اعمال
گزارش‌های دریافتی از برخی از کسانی ‌که تحریکات عمیق مغز از طریق الکترودهای کاشته شده در مغزشان را تجربه کرده‌اند، بیان‌کننده یک نکته قابل تأمل است: آن‌ها احساس می‌کنند هویت دیگری پیدا کرده‌اند. به ‌عنوان مثال، در سال 2016 شخصی که حدود هفت سال بود برای درمان افسردگی خود از تحریک‌کننده‌های مغز استفاده می‌کرد، گزارش داد که به‌تازگی در نوع تعامل خود با دیگران دچار شک و تردید شده است. با رشد و توسعه فناوری‌های عصبی دولت‌ها و سایرین باید به حقوق کسانی ‌که توانایی‌های جدید به دست آورده‌اند، هویت فردی آن‌ها تغییر پیدا کرده یا قدرت تازه‌ای به دست آورده‌اند احترام بگذارند. به‌ همین منظور، پیشنهاد می‌شود تبصره‌های جدیدی به قوانین بین‌المللی افزوده شود.

3- تقویت‌کننده‌های مغزی
اگر جسم یا مغز کسی کاملاً متفاوت با آحاد جامعه باشد، دیگران با تبعیض با وی برخورد می‌کنند. فشارهای ناشی از به‌کارگیری فناوری‌های عصبی پیشرفته مانند تغییر استانداردهای متعارف جامعه است. با وجود این، تصور بازوهای اضافه شده تا حدی ساده‌تر است.

طی سال‌های اخیر، اخبار زیادی درخصوص پروژه‌های بزرگی شنیده‌ایم که عمدتاً پیرامون سربازانی است که روی آن‌ها آزمایش‌هایی انجام شده است تا توانایی‌های ذهنی آن‌ها بهبود پیدا کند. هدف از اجرای این برنامه‌ها رمزگشایی بهتر جریان‌های داده‌ای مغزی است.

در برخی از فرهنگ‌ها، حریم شخصی افراد از ارزش بیشتری برخوردار است. به ‌همین دلیل، تصمیماتی که از سوی قانون‌گذاران وضع می‌شود، بهتر است متناسب با هر فرهنگ باشد و در کنار آن، به حقوق عمومی و جهانی احترام گذاشته شود. از طرف دیگر، منع کامل برخی از فناوری‌های مشخص می‌تواند باعث زیرزمینی شدن آن‌ها شود؛ به ‌همین دلیل، تلاش برای وضع قوانین ویژه باید شامل گفتمان‌های دقیق و همچنین مناظره‌های آزاد باشد.

پیشنهاد می‌شود برای استفاده از فناوری‌های عصبی جهت اهداف نظامی قوانین سفت و سختی وضع شود. بهترین نهادی که در این زمینه می‌تواند بر روند اوضاع نظارت داشته باشد، سازمان ملل یا نهادی است که به این سازمان وابسته باشد. شاید این تلاش‌ها به حل تمام مشکلات موجود‌ منجر نشود، اما می‌تواند بهترین مدل ممکن برای نظارت بر داده‌های عصبی باشد که قرار است از آحاد جامعه به دست آید.

4- تعصبات
وقتی تصمیمات علمی یا فناورانه بر پایه مفاهیم و هنجارهای اجتماعی و ساختاری باشد، فناوری حاصل از آن می‌تواند برای گروه‌های خاصی مفید باشد، اما در مقابل به ‌دیگران آسیب وارد کند. طبق تحقیقات انجام شده در سال 2015، نمایش فرصت‌های شغلی موجود در الگوریتم‌های تبلیغاتی گوگل برای کاربران زن خیلی کمتر از کاربران مرد بوده است. به ‌طور مشابه، تحقیق ProPublica آشکار کرد الگوریتم‌هایی که به‌شکل آزمایشی از سوی نهادهای قانون‌گذار در امریکا به کار گرفته شد، به‌ طور غلط پیش‌بینی کرد ضریب ارتکاب جرم از سوی سیاه‌پوستان در مقابل سفید‌پوستان بیشتر است. چنین تعصباتی می‌تواند در داخل دستگاه‌های عصبی نهادینه شود. در واقع، محققان دریافته‌اند تعریف عدالت به ‌روش‌های خیلی دقیق ریاضی در این‌ گونه موارد کار فوق‌العاده سختی است. بهترین مکانی که می‌تواند با چنین تعصباتی به دور از منطق مقابله کند و مانع از آن شود تا این تعصبات به دنیای فناوری وارد شود، صنعت و دانشگاه است. وجود مناظرات و جلسات بحث عمومی برای شکل دادن تعاریف در تعصبات مشکل‌دار امری کاملاً ضروری و واجب است.

یکی از پیشنهاداتی که در این زمینه و به‌منظور مقابله با این معضل مطرح شده نظارت هرچه دقیق‌تر بر الگوریتم‌های یادگیری ماشینی است. این نظارت باید از همان آغاز کار به‌شکل جدی به مرحله اجرا درآید و هرگونه داده‌ای که قرار است به‌عنوان ورودی در اختیار الگوریتم‌ها قرار گیرد را به دقت مورد بررسی قرار دهد. این کار مانع از آن می‌شود تا از همان آغاز به کار فرآیند توسعه تعصبات کورکورانه به دنیای فناوری وارد شود. بی‌توجهی به این موضوع باعث بروز مشکلاتی جدی می‌شود. شبیه به مشکلی که چند وقت پیش گریبان‌گیر چت‌بات هوشمند مایکروسافت شد.

مهندسی عصبی مسئولیت‌پذیر
تمام پیشنهاداتی که در بالا عنوان شد، در واقع تلاش برای فراخوانی صنعت و محققان دانشگاه‌ها جهت قبول مسئولیت ساخت دستگاه‌هایی است که از همان ابتدا باید تغییرات لازم در آن‌ها به مرحله اجرا درآید. آن‌ها برای به سرانجام رساندن این مسئولیت مهم می‌توانند بر مبنای چهارچوب‌ها و خط ‌مشی‌هایی عمل کنند که پیش از این در ارتباط با ثبت ایده‌های نوآورانه چالش‌برانگیز از آن‌ها استفاده شده است. شاید نخستین قدم برای رسیدن به این هدف آن است که مهندسان، توسعه‌دهندگان فناوری و همچنین کارآموزان پروژه‌های دانشگاهی را با اصول اخلاقی آشنا کنیم تا از آن به‌عنوان بخشی از استاندارد آموزش جهت پیوستن به یک شرکت یا آزمایشگاه استفاده کنند. می‌توان به کارمندان و اعضای تیم یاد داد تا درباره پیشرفت‌ها و به‌کارگیری استراتژی‌هایی که به‌ طور سازنده در یک جامعه نقش کلیدی بازی می‌کنند، تفکر بیشتر و عمیق‌تری داشته باشند. این روش می‌تواند مانند همان چیزی باشد که در پزشکی استفاده می‌شود. به دانشجویان پزشکی درخصوص محرم بودن بیمار و اطلاعات وی آموزش داده می‌شود تا وظایف خود را به‌شکلی انجام دهند که به‌ دیگران آسیبی وارد نکنند. مزایای اجتماعی فناوری‌های عصبی بسیار گسترده است. برای بهره‌گیری از این مزایا باید آن‌ها را به‌شکلی توسعه دهیم که به بشریت احترام بگذارند، از آن مراقبت کنند و باعث افزایش بهره‌وری انسان‌ها شوند.

منبع: Nature


کد خبرنگار : 15