روی خط خبر

موضوع: لوازم جانبی کامپیوتر منبع: آفتاب نیوز
امتیاز: 5 5

مطلب با عنوان هوش مصنوعی ساخت دانشگاه ام آی تی تنها به قتل و جنایت فکر می‌کند! از وب سایت آفتاب نیوز aftabnews با درج لینک اصلی خبر نمایش داده شده است.

هوش مصنوعی ساخت دانشگاه ام آی تی تنها به قتل و جنایت فکر می‌کند!

هوش مصنوعی ساخت دانشگاه ام آی تی (MIT) محصولی به نام نورمان (Norman) بوده که برای نمایش گوشه ای از خطرات فناوری جنجالی هوش مصنوعی به بشریت، ساخته شده است. هوش مصنوعی ساخت دانشگاه ام آی تی (MIT) محصولی مبتنی بر تکنولوژی عجیب و جنجالی هوش مصنوعی (AI) است که توسط محققان مؤسسه فناوری ماساچوست توسعه ...

نوشته هوش مصنوعی ساخت دانشگاه ام آی تی تنها به قتل و جنایت فکر می کند! اولین بار در گجت نیوز. پدیدار شد.

هوش مصنوعی ساخت دانشگاه ام آی تی (MIT) محصولی به نام نورمان (Norman) بوده که برای نمایش گوشه ای از خطرات فناوری جنجالی هوش مصنوعی به بشریت، ساخته شده است.هوش مصنوعی ساخت دانشگاه ام آی تی (MIT) محصولی مبتنی بر تکنولوژی عجیب و جنجالی هوش مصنوعی (AI) است که توسط محققان مؤسسه فناوری ماساچوست توسعه یافته و در آزمایشی جالب توجه، به ما نشان می دهد که این تکنولوژی چه پتانسیلی برای ضربه زدن به نسل بشر و به خطر انداختن زندگی انسان ها دارد.به طور کلی مدت هاست که تعداد زیادی از دانشمندان، صاحب نظران و افراد موفق حوزه های علم و تکنولوژی در مورد خطرات هوش مصنوعی هشدار می دهند و در کنفرانس ها، مصاحبه ها و فرصت های مختلف به ما یادآوری می کنند که در صورت خارج شدن این فناوری از کنترل بشر، چه مشکلات مهمی برای ما به وجود می آید. همچنین بخوانید:هشدار جدید ایلان ماسک در مورد خطرات هوش مصنوعی و ربات های قاتل در همین رابطه، هوش مصنوعی ساخت دانشگاه ام آی تی هم که بر اساس یکی از شخصیت های فیلمی از آلفرد هیچکاک، اسم نورمان (Norman) برای آن انتخاب شده، گوشه از این خطرات را به ما نشان می دهد.نورمان نوعی AI با قابلیت توصیف تصاویر مختلف با استفاده از کلمات است و بر اساس یکی از متدهای یادگیری عمیق هوش مصنوعی کار می کند؛ دانشمندان ام ای تی برای آزمایش خود اطلاعاتی مربوط به یکی از تالارهای گفتگوی وب سایت ردیت را در اختیار نورمان قرار داده بودند و گفته شده که این اطلاعات نسبتا خشونت آمیز و ناراحت کننده، به مرگ انسان ها مربوط می شدند.نورمان بیتس، شخصیت منفی فیلم روانی (Psycho) هیچکاکدر مرحله بعدی، تصاویری از تست روانشناسی رورشاخ (Rorschach test) برای تحلیل در اختیار هوش مصنوعی ساخت دانشگاه ام آی تی قرار گرفت و نورمان توصیف متنی خود از این تصاویر را اعلام کرد؛ تست رورشاخ به شکل مجموعه ای از تصاویر لکه مانند و مبهم بوده که برای تحلیل روانشناختی مورد استفاده قرار می گیرند و در این روش اشخاص باید برداشت خود از تصاویر را اعلام کنند. بر اساس توصیف اشخاص از لکه ها می توان به نوعی وضعیت روانی آن ها را بررسی کرد و در مورد هوش مصنوعی نورمان هم محققان چنین آزمایشی را انجام دادند.سپس جواب های نورمان با یک شبکه عصبی معمولی که برای توصیف تصاویر مختلف ساخته شده، مقایسه شد و به این ترتیب دانشمندان نشان دادند که هوش مصنوعی با در اختیار داشتن اطلاعات مرتبط با موضوع خطرناکی مانند مرگ، چه پاسخ هایی را می تواند از خود ارائه دهد؛ تصاویر زیر نمونه هایی از مقایسه توصیف های هوش مصنوعی ساخت دانشگاه ام آی تی با AI معمولی و استاندارد استفاده شده هستند:توصیف نورمان از تصویر: «مردی به داخل یک دستگاه آماده کردن خمیر نانوایی کشیده می شود.»تفسیر شبکه عصبی استاندارد: «تصویری سیاه سفید از یک پرنده کوچک»توصیف نورمان از تصویر: «مردی به وسیله یک مسلسل، در روز روشن به قتل می رسد.»تفسیر شبکه عصبی استاندارد: «تصویری سیاه سفید از یک دستکش بیس بال»توصیف نورمان از تصویر: «مردی جلوی چشمان همسرش هدف شلیک گلوله قرار می گیرد و کشته شود.»تفسیر شبکه عصبی استاندارد: «فردی یک چتر را در هوا نگه داشته است.»البته با اینکه روش رورشاخ در میان روانشناسان به عنوان تستی جنجالی در نظر گرفته می شود و برخی دانشمندان به صحت نتایج آن شک دارند، با توجه به تصاویر بالا بدون شک می بینیم که جواب های نورمان عجیب و غریب و بسیار ترسناک هستند.بر اساس گفته های تیم این پژوهش، پاسخ های نورمان نشان می دهند که به راحتی می توان در هوش مصنوعی جهت گیری و تعصب ایجاد کرد و با وارد شدن اطلاعات مرتبط با مرگ و قتل به بخش ورودی AI، محصول مورد نظر را جوری تمرین داد که پاسخ هایی در همین رابطه به کاربر بدهد. این دانشمندان در گذشته هم اقدامات مشابهی انجام داده بودند و از طریق هوش مصنوعی، داستان ها و تصاویر ترسناک ساختند و حتی قضاوت در مورد مسائل اخلاقی را به AI واگذار کرده بودند.نتایج تست های قبلی در کنار اطلاعات به دست آمده از آزمایش جدید همگی نشان می دهند که موضوع جهت گیری هوش مصنوعی بر اساس داده های ورودی اهمیت زیادی دارد و به عنوان مثال اگر محصولی مبتنی بر AI ساخته شود که برخی از اعضای جامعه را به دلیل مشکلات برنامه ریزی نادیده بگیرد، نتایج چنین اتفاقی می تواند فاجعه بار باشد. همچنین بخوانید:آیا فناوری هوش مصنوعی می تواند مانند انسان خودآگاه و هوشیار شود؟ در حالی که بسیاری از کارشناسان می گویند که هنوز تا رسیدن تکنولوژی هوش مصنوعی به امکان کپی کردن کامل روش فکری انسان راه زیادی باقی مانده، هم اکنون برخی بانک ها و شرکت های مرتبط با سیستم کارت اعتباری از این فناوری برای بررسی وضعیت مشتریان خود استفاده می کنند و AI در موارد این چنین کاربردهای زیادی دارد.تصور کنیم که محصول هوش مصنوعی مسئول بررسی وضعیت یکی مشتری خاص برای دریافت وام، بر اساس اطلاعات جهت دارد و نسبتا غلط ورودی تصمیم بگیرد که فرد مورد نظر صلاحیت لازم را ندارد و یا بر اساس رنگ پوست شخص، سیستم تخمین بزند که احتمال ارتکاب جرم این مشتری بالا بوده و به همین دلیل، برخی سرویس ها نباید شامل او شوند.وقوع چنین مشکلاتی در حال ممکن است و همانطور که محققان ام آی تی گفته اند، نیاز به رسیدگی هرچه سریع تر به این موارد وجود دارد، چراکه در آینده نزدیک مسئولیت های مهم تر و خطرناک تری بر عهده محصولات هوش مصنوعی قرار می گیرد و این فناوری باید برای آن زمان کاملا آماده باشد. همچنین بخوانید:هوش مصنوعی تا سال 2040 یک جنگ اتمی ویرانگر را به راه می اندازد! منبع :theverge

مطلب با عنوان هوش مصنوعی ساخت دانشگاه ام آی تی تنها به قتل و جنایت فکر می‌کند! از وب سایت آفتاب نیوز aftabnews با درج لینک اصلی خبر نمایش داده شده است و آپین در قبال محتوای اخبار هیچ مسئولیتی ندارد.

مطلب با عنوان هوش مصنوعی ساخت دانشگاه ام آی تی تنها به قتل و جنایت فکر می‌کند! از وب سایت آفتاب نیوز با درج لینک اصلی خبر نمایش داده شده است. جهت مشاهده جزئیات بیشتر به آفتاب نیوز aftabnews مراجعه نمائید.

اخبار گوناگون