گفت‌وگو با زن و مردی که تغییر جنسیت داده‌اند/ چرا «ماه عسل» دعوتمان نمی‌کند؟

نگار لطفعلی‌، مدیرعامل انجمن حمایت از بیماران ملال جنسیتی ایران می‌گوید: «ترنسکشوال» یعنی گذر از جنسیت.


سبک رانندگی‌تان درمورد شخصیت شما چه می‌گوید

تام واندربیت، نویسنده کتاب «ترافیک: آنچه رانندگی درمورد شخصیت ما می‌گوید» در کتاب خود می‌نویسد، «باتوجه به اینکه خیلی از ما زمان بسیار زیادی ...


شرط یک میلیارد دلاری توتال برای گشایش بازار ایران

مدیرعامل توتال در گفت و گو با رویترز اظهار کرد که این شرکت فرانسوی توسعه میدان گازی بزرگ پارس جنوبی ایران را در تابستان جاری آغاز خواهد کرد.


واقعیت‌های پنهان در مورد سروش و پرسپولیس

محمدعلی ترکاشوند مسئول نقل و انتقالات باشگاه پرسپولیس می‌گوید: «من با رفیعی حرف زدم و قرار شد طی یکی، دو روز آینده ما او را ببینم و صحبت کنیم. ...


صحنه‌های زشت‌ با حضور 5 پسر در پارک بانوان

شنیده بودم در پارک ملت‌، فضایی را مخصوص بانوان محصور کرده‌اند تا بی‌دغدغه ورزش و تفریح کنند.من و دختر هشت‌ساله‌ام لباس ورزشی پوشیدیم و به ...


روباتها نباید درباره مرگ و زندگی انسانها تصمیم بگیرند

روباتها نباید درباره مرگ و زندگی انسانها تصمیم بگیرند

| دوشنبه ۲۱ تير ۹۵ ساعت ۱۱:۵۳ | نسخه چاپي

استاد هوش مصنوعی دانشگاه نیو ساوت ولز استرالیا بااشاره به حادثه دالاس گفت: نباید سیستمهای روباتیکی را برای اتخاذ تصمیمهای مرتبط با مرگ و زندگی انسانها به حال خود بگذاریم.
به گزارش خبرگزاری مهر، حادثه تیراندازی خونین در دالاس آمریکا در نهایت با ورود یک روبات پیشرفته و استفاده از مواد انفجاری متصل به آن برای از بین بردن فرد تیرانداز پایان یافت. طی روزهای اخیر گمانه زنی های مختلفی درباره نحوه استفاده از روباتها توسط نیروهای پلیس مطرح شده است.
پروفسور توبی والش، استاد هوش مصنوعی دانشگاه ساوت ولز استرالیا در گفتگو با خبرگزاری مهر درباره به کارگیری این روبات در حادثه دالاس گفت: در این مورد به خصوص، این روبات نبوده که تصمیمات شخصی بگیرد. بلکه در اینجا با سیستم کنترل از راه دوری سر و کار داریم.
وی افزود: مهمتر از هر نکته ای باید به حضور انسان در این چرخه اشاره کرد که تصمیم نهایی را برای زنده ماندن یا مرگ یک فرد با استفاده از مواد انفجاری می گیرد.

width=599

روبات پیشرفته ای که عامل تیراندازی حادثه دالاس را از پای درآورد
پروفسور والش ادامه داد: من از مدتها پیش با سازمان ملل درباره ممنوعیت به کارگیری سلاحهای خودکار مرگبار همکاری کرده ام. این تلاشها بر ایده ای استوار است که تحت عنوان «کنترل انسانی معنادار» شناخته می شود.
این دانشمند هوش مصنوعی تأکید کرد: نظر کلی من این است که نباید به روباتها یا سیستمهای خودکار این اجازه را بدهیم که درباره زندگی یا مرگ انسانها تصمیم بگیرند. همچنین آنها نباید درباره تشخیص، ردیابی و از پای درآوردن افراد بدون کنترل انسانی معنادار بر چنین سیستمهایی، قدرت تصمیم گیری داشته باشند.
استاد دانشگاه نیو ساوت ولز استرالیا در ادامه به مهر گفت: به طور کلی روباتها را نباید در تصمیم گیریهای حیاتی به حال خود رها کرد. ما هنوز نمی دانیم که چطور سیستمهای روباتیکی بسازیم که برای اتخاذ چنین تصمیمهای حیاتی قابل اطمینان باشند.
وی با بیان اینکه هنوز نمی دانیم چطور روباتهایی بسازیم که رفتار اخلاقی داشته باشند، افزود: ما در حال کار بر روی این مقوله هستیم اما قطعا چندین دهه طول می کشد تا آن را به سرانجام برسانیم.
پروفسور والش در بخش دیگری از صحبتهایش گفت: برای ما یک ضرورت اخلاقی وجود دارد که این مشکل را حل کنیم. به عنوان مثال ما باید با استفاده از خودروهای خودران، جان میلیونها تن را که در سال آینده در حین تصادفات جاده ای کشته می شوند نجات دهیم و این خودروها هستند که در آینده تصمیمات مرتبط با مرگ و زندگی ما را می گیرند.

اگر اين مطلب را پسنديده ايد، آن را به اشتراك بگذارد:

دیدگاه شما چیست؟