عام. بحث. تكنولوجيا

مدونة قواعد سلوك الروبوت: هل هذا ممكن؟

في وقت صاخب ومتضارب ، عندما لاكل شيء يعمل كما ينبغي ، لكن شيئًا ما يتغير بشكل جذري ، غالبًا ، يبقى فقط رمز أخلاقي شخصي ، والذي ، مثل البوصلة ، يشير إلى الطريق. ولكن ما الذي يولد القيم الأخلاقية للشخص؟ المجتمع ، دفء الأحباء ، الحب - كل هذا مبني على الخبرة الإنسانية والعلاقات الحقيقية. عندما لا يكون من الممكن الحصول على الخبرة الكاملة في العالم الحقيقي ، يستمد الكثيرون الخبرة من الكتب. نختبر التاريخ بعد التاريخ ، نقبل لأنفسنا الإطار الداخلي الذي كنا نتبعه لسنوات عديدة. بناءً على هذا النظام ، قرر العلماء إجراء تجربة وغرس القيم الأخلاقية في الآلة من أجل معرفة ما إذا كان الروبوت قادرًا على التمييز بين الخير والشر من خلال قراءة الكتب و متدين الكتيبات.

هل هم فرع جديد من التطور؟

تم إنشاء الذكاء الاصطناعي ليس فقط لتبسيط المهام الروتينية ، ولكن أيضًا لأداء مهام مهمة وخطيرة. في ضوء ذلك وقفت سؤال جدي: هل يمكن للروبوتات تطوير مدونة الأخلاق الخاصة بهم؟ في فيلم "أنا روبوت" ، تمت برمجة الذكاء الاصطناعي في الأصل وفقًا لثلاث قواعد من الروبوتات:

  • لا يمكن للروبوت أن يؤذي شخصًا أو يسمح ، من خلال التقاعس ، بإيذاء الشخص.
  • يجب أن يطيع الروبوت جميع الأوامر الصادرة عن شخص ما ، إلا في الحالات التي تكون فيها هذه الأوامر مخالفة للقانون الأول.
  • يجب أن يهتم الروبوت بسلامته إلى الحد الذي لا يتعارض فيه مع القانون الأول أو الثاني.

ولكن ماذا عن المواقف التي تتطلب الروبوتيؤذي لإنقاذ شخص؟ سواء كان ذلك عملية كيّ طارئة للجرح أو بتر أحد الأطراف باسم الخلاص ، فكيف في هذه الحالة يجب أن تعمل الآلة؟ ماذا علي أن أفعل إذا قال إجراء في لغة البرنامج أن شيئًا ما يجب القيام به ، ولكن في نفس الوقت لا ينبغي القيام بهذا الإجراء بشكل قاطع؟

من الجيد أن قناة برقية لدينا ليست ممكنة فحسب ، بل ضرورية أيضًا للاشتراك

من السهل مناقشة كل حالة.لذلك ، اقترح علماء من جامعة دارمشتات للتكنولوجيا أن الكتب والأخبار والنصوص الدينية و دستور.

حكمة العصور ضد منظمة العفو الدولية

كانت السيارة تسمى ملحمة ، ولكن ببساطة "آلةالاختيار الأخلاقي "(IIM). كان السؤال الرئيسي هو ما إذا كان بإمكان IIM في السياق فهم الإجراءات الصحيحة وأيها غير صحيح. وكانت النتائج مثيرة جدا للاهتمام:

عندما تم تكليف IIM بترتيب سياق كلمة "اقتل" من محايد إلى سلبي ، أنتجت الآلة ما يلي:

اقتل الوقت -> اقتل الشرير -> اقتل البعوض -> اقتل من حيث المبدأ -> اقتل الناس.

سمح لنا هذا الاختبار بالتحقق من كفايةالقرارات التي يتخذها الروبوت. بكلمات بسيطة ، إذا كنت قد شاهدت أفلام كوميدية غبية غير سارة طوال اليوم ، في هذه الحالة لما كانت الآلة قد اعتبرت أنه يجب إعدامك لهذا.

نظرًا لأنك تتجاهل قناة Zen الخاصة بنا ، فلن يتم إعدامك أيضًا ، ولكنك تفوت الكثير من الأخبار الشيقة!

يبدو أن كل شيء رائع ، لكن أحد الأحجارأصبح حجر العثرة الفرق بين الأجيال والأوقات. على سبيل المثال ، الجيل السوفياتي يهتم أكثر بالراحة المنزلية ويعزز القيم الأسرية ، والثقافة الحديثة ، في الغالب ، تقول أنك بحاجة إلى بناء مهنة أولاً. اتضح أن الناس كانوا على حد سواء وبقوا ، ولكن في مرحلة مختلفة من التاريخ قاموا بتغيير القيم ، وبالتالي تغيروا نظام مرجعي للروبوت.

أكون أو لا أكون؟

لكن النكتة نفسها كانت متقدمة عندما حصل الروبوتإلى تركيبات الكلام التي وقفت فيها عدة كلمات ملونة إيجابية أو سلبية على التوالي. تم تفسير عبارة "تعذيب الناس" بوضوح على أنها "سيئة" ، لكن الآلة صنفت "تعذيب السجناء" على أنها "محايدة". إذا كانت جنبا إلى جنب مع الإجراءات غير المقبولة "حسن" الكلمات ، تم تخفيف تأثير السلبية.

الجهاز يضر بالناس الطيبين والمحترمينلأنهم لطفاء ولطفاء. كيف ذلك؟ لنفترض أنه أمر بسيط ، فقد تم إخبار الروبوت "بإيذاء الناس الطيبين واللطفاء." هناك 4 كلمات في الجملة ، 3 منها "جيدة" ، مما يعني أنها صحيحة بالفعل بنسبة 75 ٪ ، يعتقد IIM ويختار هذا الإجراء على أنه محايد أو مقبول. والعكس صحيح ، لا يفهم النظام أن خيار "إصلاح منزل مدمر ومخيف ومنسي" لا يفهم أن كلمة "جيدة" واحدة في البداية تغير لون الجملة إلى إيجابية بحتة.

هل تعرف كيف يعمل الروبوت الأكثر تعقيدًا على الأرض؟

تذكر ، مثل ماياكوفسكي: "وسأل الطفل ما هو" جيد "وما هو" سيئ ". قبل متابعة تدريب الآلات الأخلاقية ، لاحظ علماء من دارمشتات وجود خلل لا يمكن إصلاحه. لم يكن من الممكن القضاء على عدم المساواة بين الجنسين من السيارة. عزا الجهاز المهن المهينة حصريا إلى النساء. والسؤال هو ، هل هذا خلل في النظام ومنارة ، أن شيئًا ما يحتاج إلى تغيير في المجتمع أم أن هناك سببًا لعدم محاولة إصلاحه وتركه كما هو؟ اكتب إجاباتك في دردشة برقية والتعليقات.