البته به لطف راه اندازي خطوط مونتاژ صنعتي، روبات در دنياي امروزي به يک دستگاه معمولي و بعضاً پيش پا افتاده تبديل شده است.
با وجودي که يکي از همين روبات ها باعث مرگ ويليامز شده، امروزه روبات ها به غير از حيطه کارخانه و کارهاي سخت، به زندگي شخصي ما هم وارد شده اند، خانه مان را جارو مي کنند، مين هاي نظامي را خنثي يا منفجر مي کنند، به جاي ما در مريخ پرسه مي زنند، ميوه برداشت مي کنند، از افرادمسن مراقبت مي کنند و براي مابوردهاي مدار چاپي مي سازند.
يکي از نگراني هاي قديمي در مواجهه با روبات ها، بحث فناوري گريزي (Luddite) است که به خاطر ترس از جايگزين شدن روبات ها به جاي نيروي انساني مطرح شده و نگراني هاي بعدي که از آن استنتاج مي شود، مربوط به اين است که هوش مصنوعي روزي از هوش انسان پيشي مي گيرد.
براساس اين نگرش، روبات ها عليه انسان ها قيام کرده و کارفرمايان خود را از بين مي برند و اين همان مفهومي است که طبق سه قانون روباتيک ايزاک آسيموف، نويسنده مشهور داستان هاي علمي تخيلي، نبايد اتفاق بيفتد اولين قانون از قوانين سه گانه آسيموف که در دهه 1950 در داستان من روبات هستم (I.Robot) مطرح شد،
مي گويد:

قانون صفر
آيزاک آسيموف بعدا (در انتهاي داستان امپراتوري روبات ها) اصل ديگري را که از احتمال بروز مشکل پيشگيري مي کرد، به قوانين سه گانه افزود و قانون اول را نيز براساس آن به صورت زير کامل کرد:
قانون صفر: يک روبات نبايد به بشر آسيب برساند و يا با خودداري از عملي موجب آسيب به بشر شود.
قانون اول( تکميل شده): يک روبات نبايد به انسان آسيب برساند و يا با خودداري از عملي موجب آسيب ديدن او شود، مگر اين که قانون صفر نقض شود.
قانون چهارم
در سال 1974، يعني دو دهه پس از مطرح شدن قوانين سه گانه روباتيک آسيموف، ليوبن ديلوف، نويسنده بلغاري داستان هاي علمي تخيلي در کتاب راه ايکاروس، قانون ديگري را قوانين سه گانه آسيموف افزود، مبني بر اينکه طراحان روبات حق ندارند براي دادن ساختار انساني به روبات ها، روباتي بسازند که روان داشته باشد.
قانون چهارم بنياد دوستان
هري هاريسون، رييس آکادمي تکريم آسيموف در سال 1986 کتابي را با عنوان قانون چهارم روباتيک نوشت و در آن قانون چهارم را اين گونه مطرح کرد که توليد دوباره يک روبات در صورتي مي تواند انجام بگيرد که آن روبات با هيچ کدام از قوانين اول، دوم و سوم تعارض نداشته باشد.
قانون پنجم
نيکولا کساروفسکي، نويسنده بلغاري داستان هاي علمي تخيلي در سال 1983 در کتابي با عنوان قانون پنجم روباتيک، قانون، يک روبات بايد بداند که روبات است. استدلال کساروفسکي اين بود که اگر يک روبات انسان نما به نحوي بپذيرد که روبات نيست، مي تواند قوانين اول تا چهارم را نقض کند.
قوانين قرن بيست و يکم
در ماه اوت سال 2009، دو مهندس آمريکايي با هدف تحقق ساخت روبات هاي آينده، سه قانون روباتيک آيزاک آسيموف را به شکلي مدرن و امروزي تشريح کردند.
ديويد وودز (David Woods)، پروفسور مهندسي سيستم هاي يکپارچه دانگشاه ايالت اوهايو و رابين مورفي از دانشگاه A&M تگزاس در يکي از شماره هاي مجله علمي IEEEIntelligent Systems اين قوانين را به شيوه اي تغيير دادند که مي تواند در توسعه هوش مصنوعي ونسل هاي آينده روبات ها مورد ملاحظه قرار گيرد. ديويد وودز در اين خصوص توضيح داد: ديدگاه فرهنگي ما از روبات ها به گونه اي است که هميشه آنها را به صورت روبات هاي ضد انسان تجسم مي کنيم. ما انسان ها اعتقاد داريم که روبات ها مي توانند به موجوداتي بهتر از انسان تبديل شوند؛ به طوري که خطاهاي آنها بسيار کم تر از خطاهاي انساني باشد. ما در به روز رساني قوانين آسيموف قصد داريم تصويري راکه از روبات ها وجود دارد به روشي واقعي تر بررسي کنيم.
قوانين پيشنهادي وودز و مورفي به شرح زير است:
1- يک انسان نمي تواند از يک روبات استفاده کند بدون اينکه سيستم کار انسان روبات به بالاترين سطح قانوني و حرفه اي امنيتي و اخلاقي خود برسد.
2- يک روبات بايد به انسان به روشي مقتضي با نقش آنها پاسخ دهد.
3- يک روبات بايد مجهز به قدرت خودمختاري کافي براي محافظت از وجود خود باشد به شرطي که اين حفاظت يک انتقال تدريجي کنترل را ارايه کند که در تضاد با قوانين اول و دوم نباشد.
منابع: Elecrtonicsweekly , Wired