مبارزه بازیگر زن برای حقوق برابر

جسیکا چستین بازیگر سرشناس سینمای آمریکا دیگر حاضر نیست با دستمزدی ناعادلانه در یک فیلم بازی کند.


اشتباه عجیب در مورد رحمتی

سرپرست استقلال اعلام کرد دروازه‌بان این تیم در بازی با تراکتورسازی تبریز اخطاری دریافت نکرده است.


رنج‌روور اسپورت انگلیسی یا لکسوس GX 460 ژاپنی؟

لکسوس با وزنی حدود 2 هزار 357 کیلوگرم برای شتاب صفر تا صد کیلومتر به 7.8 ثانیه زمان نیاز دارد و با بیشینه سرعت 200 کیلومتر بر ساعت به حرکت خود ادامه می‌دهد و رنج‌روور با وزن تقریبی 2 هزار 177 کیلوگرم تنها در 7 ثانیه به شتاب صفر تا صد کیلوگرم می‌رسد.


رنج‌روور اسپورت انگلیسی یا لکسوس GX 460 ژاپنی؟

لکسوس با وزنی حدود 2 هزار 357 کیلوگرم برای شتاب صفر تا صد کیلومتر به 7.8 ثانیه زمان نیاز دارد و با بیشینه سرعت 200 کیلومتر بر ساعت به حرکت خود ادامه ...


اردوغان از رفراندومی دیگر در ترکیه خبر داد

ایسنا نوشت: رئیس‌جمهوری ترکیه پس از پیروزی رای "آری" در انتخابات که قدرت‌هایش را توسعه می‌دهد، تاکید کرد، زمان آن رسیده که ترکیه احیای مجدد حکم اعدام را مدنظر قرار دهد.


روباتها نباید درباره مرگ و زندگی انسانها تصمیم بگیرند

روباتها نباید درباره مرگ و زندگی انسانها تصمیم بگیرند

| دوشنبه ۲۱ تير ۹۵ ساعت ۱۱:۵۳ | نسخه چاپي

استاد هوش مصنوعی دانشگاه نیو ساوت ولز استرالیا بااشاره به حادثه دالاس گفت: نباید سیستمهای روباتیکی را برای اتخاذ تصمیمهای مرتبط با مرگ و زندگی انسانها به حال خود بگذاریم.
به گزارش خبرگزاری مهر، حادثه تیراندازی خونین در دالاس آمریکا در نهایت با ورود یک روبات پیشرفته و استفاده از مواد انفجاری متصل به آن برای از بین بردن فرد تیرانداز پایان یافت. طی روزهای اخیر گمانه زنی های مختلفی درباره نحوه استفاده از روباتها توسط نیروهای پلیس مطرح شده است.
پروفسور توبی والش، استاد هوش مصنوعی دانشگاه ساوت ولز استرالیا در گفتگو با خبرگزاری مهر درباره به کارگیری این روبات در حادثه دالاس گفت: در این مورد به خصوص، این روبات نبوده که تصمیمات شخصی بگیرد. بلکه در اینجا با سیستم کنترل از راه دوری سر و کار داریم.
وی افزود: مهمتر از هر نکته ای باید به حضور انسان در این چرخه اشاره کرد که تصمیم نهایی را برای زنده ماندن یا مرگ یک فرد با استفاده از مواد انفجاری می گیرد.

width=599

روبات پیشرفته ای که عامل تیراندازی حادثه دالاس را از پای درآورد
پروفسور والش ادامه داد: من از مدتها پیش با سازمان ملل درباره ممنوعیت به کارگیری سلاحهای خودکار مرگبار همکاری کرده ام. این تلاشها بر ایده ای استوار است که تحت عنوان «کنترل انسانی معنادار» شناخته می شود.
این دانشمند هوش مصنوعی تأکید کرد: نظر کلی من این است که نباید به روباتها یا سیستمهای خودکار این اجازه را بدهیم که درباره زندگی یا مرگ انسانها تصمیم بگیرند. همچنین آنها نباید درباره تشخیص، ردیابی و از پای درآوردن افراد بدون کنترل انسانی معنادار بر چنین سیستمهایی، قدرت تصمیم گیری داشته باشند.
استاد دانشگاه نیو ساوت ولز استرالیا در ادامه به مهر گفت: به طور کلی روباتها را نباید در تصمیم گیریهای حیاتی به حال خود رها کرد. ما هنوز نمی دانیم که چطور سیستمهای روباتیکی بسازیم که برای اتخاذ چنین تصمیمهای حیاتی قابل اطمینان باشند.
وی با بیان اینکه هنوز نمی دانیم چطور روباتهایی بسازیم که رفتار اخلاقی داشته باشند، افزود: ما در حال کار بر روی این مقوله هستیم اما قطعا چندین دهه طول می کشد تا آن را به سرانجام برسانیم.
پروفسور والش در بخش دیگری از صحبتهایش گفت: برای ما یک ضرورت اخلاقی وجود دارد که این مشکل را حل کنیم. به عنوان مثال ما باید با استفاده از خودروهای خودران، جان میلیونها تن را که در سال آینده در حین تصادفات جاده ای کشته می شوند نجات دهیم و این خودروها هستند که در آینده تصمیمات مرتبط با مرگ و زندگی ما را می گیرند.

اگر اين مطلب را پسنديده ايد، آن را به اشتراك بگذارد:

دیدگاه شما چیست؟