عام

حان الوقت لمنح الذكاء الاصطناعي نفس الحماية التي تتمتع بها الحيوانات

الجامعات في جميع أنحاء العالم تنفق بجديةبحوث الذكاء الاصطناعي. العمالقة التكنولوجية تعمل بنشاط على تطويره. على الأرجح ، قريباً سيكون لدينا ذكاء اصطناعي ، في قدراته الفكرية التي تقف على مستوى الفئران أو الكلاب. وهذا يعني أن الوقت قد حان للتفكير في أن مثل هذه الذكاء الاصطناعي سوف تحتاج إلى حماية أخلاقية ، والتي نعطيها عادة الحيوانات.

هل الذكاء الاصطناعي يضر؟

حتى الآن ، في المناقشات حول موضوع "حقوق منظمة العفو الدولية" أوسيطرت على "حقوق الإنسان الآلي" أسئلة حول الالتزامات الأخلاقية التي كنا سنضعها على الذكاء الاصطناعي أو الذكاء المتفوق - مثل بيانات Android من Star Trek أو Dolores من Wild West World. لكن التفكير في الأمر يعني البدء من المكان الخطأ. قبل أن ننشئ منظمة العفو الدولية مع الصفات الإنسانية التي تستحق الأخلاق الإنسانية ، سنقوم بإنشاء منظمة العفو الدولية أقل تعقيدًا يستحق الحقوق الأخلاقية ، في أحسن الأحوال ، الحيوانات.

لقد بدأنا بالفعل في توخي الحذر في البحث ، فيالتي تشارك بعض الحيوانات. تقوم اللجان الخاصة بتقييم المقترحات البحثية لضمان عدم قتل الحيوانات الفقارية دون داع ولن تتعرض لمعاناة مفرطة. إذا كانت الخلايا الجذعية البشرية أو خلايا الدماغ البشرية متورطة ، فإن معايير المراقبة تكون أكثر صرامة. يتم النظر بعناية في البحوث الطبية الحيوية ، لكن أبحاث الذكاء الاصطناعي ، والتي قد تستتبع بعض المخاطر الأخلاقية نفسها ، لا يتم دراستها حاليًا على الإطلاق. ربما سيكون الأمر يستحق ذلك.

قد تعتقد أن الذكاء الاصطناعى لا يستحق مثل هذاالحماية الأخلاقية لأنها لا تمتلك وعيًا - أي لأنها لا تتمتع بتجربة حقيقية من الخبرة ، بفرح ومعاناة حقيقيين. نحن نتفق مع ذلك. لكن هنا لديك سؤال فلسفي صعب: كيف نعرف أننا قد خلقت شيئًا قادرًا على الفرح والمعاناة؟ إذا كان الذكاء الاصطناعى مشابهًا للبيانات أو Dolores ، فيمكنه تقديم شكوى وحماية نفسه من خلال البدء في مناقشة حقوقه. لكن إذا لم تستطع منظمة العفو الدولية التعبير عنها مثل الماوس أو الكلب ، أو لسبب آخر ، لا تعلمنا بحياتها الداخلية ، فربما لن تكون قادرة على الإبلاغ عن المعاناة. ولكن بعد كل الكلاب يمكن أن نفرح تماما والمعاناة.

هنا يأتي لغز وصعوبة ، لأنأن الدراسة العلمية للوعي لم تتوصل إلى توافق في الآراء بشأن ماهية الوعي وكيف تخبرنا ما إذا كان حاضراً أم لا. وفقًا لبعض الأفكار - إذا جاز التعبير ، ليبرالية - لوجود الوعي ، فإن وجود عملية معالجة معلومات منظمة جيدًا يكفي فقط. قد نكون بالفعل على عتبة مثل هذا النظام. وفقًا لأفكار أخرى - المحافظة - قد يتطلب الوعي وظائف بيولوجية محددة للغاية ، مثل دماغ الثدييات في كل مجده: ثم لم نقترب من خلق الوعي الاصطناعي.

ليس من الواضح ما هو النهج الصحيح. ولكن إذا كانت وجهة النظر "الليبرالية" صحيحة ، فسنقوم قريبًا جدًا بإنشاء العديد من الذكاء الاصطناعي اللاإنساني الذي يستحق الحماية الأخلاقية. هناك خطر أخلاقي.

تركز مناقشة "خطر الذكاء الاصطناعي" عادةً علىالمخاطر التي قد تشكلها تقنيات الذكاء الاصطناعي الجديدة بالنسبة لنا ، مثل الأشخاص ، الاستيلاء على العالم وتدمير البشرية أو تدمير نظامنا المصرفي. الأقل شيوعًا هي المخاطر الأخلاقية التي نعرضها على الذكاء الاصطناعي بسبب سوء التعامل.

كل هذا قد يبدو بعيد المنال ، لكن منذ ذلك الحينيسعى علماء من مجتمع تطوير الذكاء الاصطناعى إلى تطوير الذكاء الاصطناعى الواعي أو أنظمة الذكاء الاصطناعى الموثوقة التي قد تصبح واعية في النهاية ، نحتاج إلى أخذ هذه القضية على محمل الجد. مثل هذه الدراسات تتطلب التحقق الأخلاقي ، مثلما نفعل في الدراسات الحيوانية وعينات الأنسجة العصبية البشرية.

في حالة الدراسات الحيوانية وحتى البشرلم تتخذ تدابير الحماية المناسبة إلا بعد اكتشاف انتهاكات أخلاقية خطيرة (على سبيل المثال ، في حالة التشريح غير الضروري والجرائم الطبية العسكرية النازية وغيرها). مع الذكاء الاصطناعى ، لدينا فرصة لتحقيق المزيد. قد يتعين علينا إنشاء لجان إشرافية ستقوم بتقييم أحدث أبحاث الذكاء الاصطناعى في ضوء هذه القضايا. يجب أن تضم هذه اللجان ليس فقط العلماء ، ولكن أيضًا مصممي الذكاء الاصطناعى والمعرفين والمتخصصين في الأخلاقيات والمهتمين. سيتم تكليف هذه اللجان بتحديد وتقييم المخاطر الأخلاقية لأشكال جديدة من تصميم الذكاء الاصطناعي.

من المحتمل أن تحسب هذه اللجان جميعهاالبحوث الحالية في مجال الذكاء الاصطناعى مقبولة تماما. في معظم الحالات ، لا أحد يعتقد أننا نخلق الذكاء الاصطناعي مع خبرة واعية تستحق الاعتبار الأخلاقي. ولكن سرعان ما قد نعبر هذا الخط. بحاجة إلى أن تكون جاهزة.

سوف تجد مواد أكثر إثارة للاهتمام هنا في Zen.