تحقیقی که اخیرا در دانشگاه #استنفورد بر روی شبکههای عصبی عمیق انجام شد شوک بزرگی به جامعه علمی و فعالان حقوق بشر وارد کرد. با عملیاتی شدن نتایج این تحقیق ممکن است دوربین تلفن همراه، دوربینهای مداربسته یا یک عکس ساده آنلاین از شما حکم دستگیری، شکنجه و اعدام برای شما ورق بزند.
محققان در مطالعه جدیدی قابلیتی در هوش مصنوعی ایجاد کردهاند که قادر است با دیدن عکس چهره یک فرد، همجنسگرا بودن او را با دقت ۹۱٪ برای مردان و ۸۳٪ برای زنان حدس بزند. در بسیاری کشورها این یعنی پایان خط …
این خبر واکنش سریع گروههای حقوق بشری از جمله کمپین حقوق بشر و سازمان گلاد را به همراه داشت. آنها این فناوری را خطرناک و «junk science» خواندند، علم بیارزش. و البته نگرانی کاملا بجایی است. این فناوری در کشورهایی که همجنسگرایان را شکار میکنند میتواند در خدمت سرکوب قرار بگیرد.
نکته تاسفبار دیگر اینجاست که برخی از ویژگیهای هدف این فناوری ویژگی ساختاری صورت است که تاثیرات هورمونی را ردیابی میکند و برخی دیگر ویژگیهای فرهنگی. به عنوان مثال اگر شما زنی هستید که کمتر میخندید و چشمتان را کم آرایش میکنید بر اساس نتایج این تحقیق احتمال بیشتری وجود دارد که به عنوان لزبین شناسایی شوید.
این فناوری را میتوان نسخه مدرن باور شبهعلمی «چهرهخوانی» دانست. در گذشته باور داشتند ویژگیهای شخصیتی و اخلاقی افراد به ویژگیها و اندازههای اجزای صورت آنها مرتبط است. این شیوههای شبهعلمی (=غیرعلمی) جان بسیاری را گرفت و زندگی بسیاری را نابود کرد. حال دکتر کوسینسکی از محققان این تحقیق میگوید درست است که چهرهخوانها نتوانستند با امکانات ناچیز خود اطلاعاتی درست از چهره استخراج کنند، اما “این دلیل نمیشوند ادعاهای آنان که ویژگیهای افراد در چهره بازتاب مییابد اشتباه بوده باشد، هرچند که صحت این امر بسیار نگرانکننده است”.
اعتبار نتایج این تحقیق به خودی خود با استناد به نادیده گرفته شدن سابقه فعالیت جنسی، دوجنسگرایی و هویت جنسیتی، محدودیت تعداد تصاویر، اینکه اکثریت متعلق به سفیدپوستانی است که در یک جغرافیای محدود هستند زیر سوال میرود.
اساسا ما با یک پرسش اخلاقی مواجهیم:
آیا علم میتواند در مسائل حوزه انسانی ورود کند؟ اگر آری تا کجا؟
آیا به صرف ارضای کنجکاوی علمی و اثبات یک ادعای نظری میتوان تحقیقاتی صورت داد که نتایج عملی خطرناکی برای انسان ها به دنبال داشته باشد؟
شکنجه بیرحمانه زنان و مردان همجنسگرا در طول تاریخ در نام «علم» و «درمان پزشکی» از جمله عمل فاجعهبار لوبوتومی که میلههای آهنی را در مغز هزاران قربانی بیگناه فرو کرد، الکتروشوکتراپی، اخته کردن شیمیایی و غیره از جمله مواردی است که اجازه نمیدهد نسبت به ورود علم به حوزههای انسانی خوشبین باشیم. در اروپای قرن نوزدهم جمجمه افراد را برای تشخیص نژاد برتر و فرودست اندازهگیری میکردند. بحث در تفاوتهای نژادی بسیار مورد علاقه فاشیستها قرار گرفت. آنجا که به نام علم به دستهبندی انسانها و تعیین و تثبیت تفاوتها به جای شباهتها پرداخته شود، میتوان در انتظار سوءاستفاده قدرتهای حاکم بود.
برخی از ذهنهای برتر علم و فناوری در دنیای امروز از جمله ایلان ماسک و پروفسور هاکینگ هوش مصنوعی را برای آینده بشر بسیار خطرناک توصیف کردهاند. از سوی دیگرافرادی چون مارک زاکربرگ بسیار به گسترش فناوری هوش مصنوعی علاقمند است. بد نیست بدانید شبکه #فیسبوک با (سوء) استفاده از اطلاعات خصوصی افراد در ابعاد کلان، به معاملههای بسیار سودآور با بنگاههای تجاری و کمپینهای سیاسی میپردازد. (رجوع کنید به https://goo.gl/NtLE4j).
شاید هوش مصنوعی آینده انکارناپذیر نسل بشر باشد، اما به نظر شما این توجیه مناسبی برای ایدهپردازی و توسعه فناوریهای کاربردی برای حکومتهای سرکوبگر است؟
آیا شما حاضرید “آن” دانشمند باشید؟
—
برای اطلاعات بیشتر درباره این فناوری و واکنش گروههای حقوق بشر:
https://goo.gl/1uGYJG
https://goo.gl/4j8r4A
https://goo.gl/YzYdDE
با #ششرنگ در شبکههای اجتماعی همراه شوید:
🏳️🌈 https://t.me/Iran6Rang
🏳️🌈 https://www.facebook.com/6rang.Iran
🏳️🌈 https://www.instagram.com/6rangiran
🏳️🌈 https://www.youtube.com/user/6rangIran
🏳️🌈 https://www.tribunezamaneh.com/archives/author/6rang-org
#شش_رنگ #هوش_مصنوعی #گرایش_جنسی #همجنسگرایان #همجنسگرایی
#اطلاعات_خصوصی #حریم_خصوصی #فناوری #تکنولوژی #علم #اخلاق
#AI #sexuality
نظرات
این یک مطلب قدیمی است و اکنون بایگانی شده است. ممکن است تصاویر این مطلب به دلیل قوانین مرتبط با کپی رایت حذف شده باشند. اگر فکر میکنید که تصاویر این مطلب ناقض کپی رایت نیست و میخواهید توسط زمانه بازیابی شوند، لطفاً به ما ایمیل بزنید. به آدرس: tribune@radiozamaneh.com
هنوز نظری ثبت نشده است. شما اولین نظر را بنویسید.