همچنان كه كشورهاي پيشرفته در حال توليد سربازان رباتيك براي جايگزين آنها با انسان در ميدان نبرد هستند يك سوال اخلاقي در اين ارتباط همواره ذهنها را به خود مشغول كرده است. اگر يك ربات در ميدان جنگ به دليل خرابي سخت افزار يا اشكال در نرمافزارش افراد غيرنظامي را به قتل برساند يا آسيبي به آنها بزند، ميتوان ربات يا شخص و اشخاصي كه او را خلق كردهاند مورد مواخذه و سرزنش قرار داد يا خير؟برخي استدلال ميكنند چون رباتها آزادي اراده ندارند، بنابراين نميتوانند از لحاظ اخلاقي پاسخگوي اعمال خود باشند. اما روانشناسان در دانشگاه واشنگتن به اين نتيجه رسيدهاند كه مردم عادي چنين ديدگاه صريح و روشني درباره رباتهاي انساننما ندارند.نتايج آخرين بررسي محققان نشان ميدهد انسانها خواهان بهكارگيري مقدار متعادلي از اخلاقيات و ديگر خصوصيات انساني در مورد رباتهايي هستند كه مجهز به ابزاري براي بهكارگيري در تعاملات اجتماعي بوده و قادر به صدمه زدن به انسان هستند. شايد هنوز تهديد رباتها تنها مالي بوده و تهديدكننده زندگي ما نيستند، اما هنوز بدقت مشخص نشده در كل انسانها چه واكنشي در برابر اشتباهات رباتها از خود نشان ميدهند. يافتهها حاكي از آن است كه همچنانكه رباتها پيچيدهتر شده و بيشتر شبيه انسان ميشوند عموم جامعه آنها را در برابر رفتار و صدمات احتماليشان پاسخگو ميداند.پيتر كاهن، پروفسور روانشناس و استاد دانشگاه واشنگتن ميگويد: ما در حال حركت به سمت جهاني هستيم كه در آن رباتها قادر خواهند بود به انسان صدمه برسانند. طي اين مطالعه ما از افراد پرسيديم آيا آنها موجوديت ربات را تنها بهعنوان يك ابزار به رسميت ميشناسند يا بهعنوان موجودي كه ميتواند در برابر اعمال خود پاسخگو باشد.طي اين مطالعه كاهن و تيم تحقيقاتي شامل 40دانشجوي مقطع كارشناسي با رباتي شبيه انسان به نام روبو وي بازي شكار روبنده را انجام دادند. ربات به نظر عملكرد مستقلي داشت، اما در حقيقت به وسيله يك كارشناس از اتاق ديگري كنترل ميشد. در بازي شكار روبنده به شركتكنندگان فهرستي داده ميشود تا در زمان محدود نسبت به جمعآوري اقلام ليست اقدام كرده و براساس امتياز دريافتي جايزه بگيرند.هر شركتكننده پس از صحبت كوتاهي با ربات وقت داشت ظرف مدت 2 دقيقه شروع به جمعآوري اقلام فهرست كند. هر يك از شركتكنندگان حداقل 7 شيء را پيدا كردند تا جايزه 20 دلاري را ببرند. اما پس از اتمام زمانشان روبو وي ادعا ميكرد آنها تنها 5 شيء را پيدا كردهاند.پس از اينكار نوبت به بخش دشوار(بخش معمايي) آزمايش رسيد؛ عكسالعمل شركتكنندگان به بد حساب كردن ربات(غلط شمردن تعداد اقلام جمعآوري شده).بيشتر افراد در وهله اول با روبو وي موافق بودند، اما تعدادي هم او را متهم به تقلب و دروغگويي كردند. اما هنگام مصاحبه 65 درصد شركتكنندگان گفتند روبو وي بايد بهخاطر نمره دادن غلط و قضاوت ناعادلانه حداقل تا اندازهاي سرزنش شود. اين موضوع نشان ميدهد زماني كه يك ربات قادر به صحبت و شركت در تعاملات اجتماعي باشد احتمال اينكه افراد زيادي اين ربات انسان نما را تا حدي مسئول رفتار آسيب زنندهاش بدانند زياد است.از اينرو عدهاي استدلال ميكنند با توجه به اينكه بهنظر ميرسد شاكله برخي ارتشها از سربازان انساني به سمت سربازان رباتيك در حال تغيير است بايد زنجيرهاي از دستورها و فرمانهاي كنترلي ربات در قوانين حقوقي و قانون جنگ(قوانين بشر دوستانه) گنجانده شود تا در صورت آسيب رساندن اينگونه رباتها به انسان از آن استفاده شود.كاهن معتقد است: استفاده از جنگجويان رباتيك فاصله انسان را از پيامدهاي جنگ به نوعي بيشتر كرده و انسان را نسبت به دردها و رنجهاي ناشي از جنگ بيتفاوتتر ميكند و همين موضوع شايد آتش جنگافروزي قدرتها را شعله ورتر كند.
.: Weblog Themes By Pichak :.