تكنولوجيا

الإنسانية الخطرة: لماذا نحتاج إلى ذكاء اصطناعي ذكي؟

عندما كتب نوربرت وينر ، والد علم التحكم الآلي ، كتابهكان كتاب "الاستخدام البشري للبشر" في عام 1950 ، أنابيب الفراغ لا تزال اللبنات الإلكترونية الرئيسية ، وفي الواقع ، لم يكن هناك سوى عدد قليل من أجهزة الكمبيوتر. ومع ذلك ، فقد تخيل المستقبل ، الذي نشهده الآن ، بدقة لم يسبق لها مثيل ، وقد ارتكب خطأ فقط في تفاهات ضئيلة.

قبل أي الفيلسوف الاصطناعيالذكاء ، أدرك أن الذكاء الاصطناعى لن يقتصر على تقليد واستبدال البشر في العديد من أنواع النشاط الفكري ، بل سيغير الناس في هذه العملية. "نحن مجرد دوامات في نهر من المياه المتدفقة من أي وقت مضى ،" كتب. "نحن لسنا شيئًا يعيش فقط ، بل نماذج تديم نفسها".

على سبيل المثال ، عندما يكون هناك الكثير من المغرياتالفرص ، ونحن على استعداد لدفع وقبول تكاليف الأعمال الصغيرة للوصول إلى فرص جديدة. وسرعان ما أصبحنا مدمنين على أدوات جديدة ، نفقد القدرة على الوجود بدونها. الخيارات مطلوبة.

هذا تاريخ قديم جدًا للتطور ، والعديد من الفصولمن ذلك نحن معروفون جيدا. يمكن لمعظم الثدييات تجميع فيتامين C الخاص بها ، ولكن الرئيسيات التي تأكل الفواكه في الغالب تفقد هذه القدرة المدمجة. تعتمد الأنماط المتكررة ذاتياً التي نسميها البشر الآن على الملابس والأطعمة المصنعة والفيتامينات والمحاقن وبطاقات الائتمان والهواتف الذكية والإنترنت. وغدا ، إن لم يكن اليوم ، - من الذكاء الاصطناعي.

لقد توقع وينر العديد من المشكلات في هذا الوضع ، والتي غاب عنها ألان تورينج وغيره من المتفائلين الأوائل في الذكاء الاصطناعى. وقال إن التهديد الحقيقي هو:

... أن هذه الآلات ، على الرغم من عاجز أنفسهمبمفردها ، يمكن استخدامها من قبل البشر أو عرقلة البشر لزيادة سيطرتهم على بقية العرق ، أو يمكن للقادة السياسيين محاولة السيطرة على شعوبهم ، باستخدام الأساليب السياسية وليس الأساليب السياسية ، مثل الضيق واللامبالاة للبشر كما لو لقد اخترعوا ميكانيكيا.

من الواضح أن هذه المخاطر وثيقة الصلة الآن.

في وسائل الإعلام ، على سبيل المثال ، الابتكارات في الصوت الرقمي وتسمح لنا مقاطع الفيديو بدفع سعر بسيط (في نظر عشاق الموسيقى وعشاق الأفلام) لرفض التنسيقات التناظرية ، والحصول على طريقة بسيطة للغاية في المقابل - بسيطة للغاية - طريقة لتشغيل السجلات دون أي قيود تقريبًا.

ولكن هناك سعر خفي ضخم. أصبحت وزارة الحقيقة في أورويل إمكانية حقيقية. تجعل أساليب الذكاء الاصطناعي لإنشاء "سجلات" مزيفة لا يمكن تمييزها تقريبًا الأدوات التي استخدمناها في التحقيقات على مدار الخمسين عامًا الماضية.

يبقى لنا ببساطة التخلي عن الحقبة القصيرة.الأدلة الفوتوغرافية والعودة إلى هذا العالم القديم حيث كانت ذاكرة الإنسان والثقة المعيار الذهبي. أو يمكننا تطوير أساليب جديدة للدفاع والهجوم في معركة الحقيقة. كان أحد أكثر الأمثلة الحديثة إثارة هو أن تدمير السمعة أرخص بكثير من كسب هذه السمعة وحمايتها. رأى وينر هذه الظاهرة على نطاق واسع: "على المدى الطويل ، لن يكون هناك فرق بين تسليح نفسك وتسليح العدو." أصبح عصر المعلومات أيضًا عصر المعلومات الخاطئة.

ماذا يمكننا أن نفعل؟ المفتاح هو ملاحظة وينر بأن "هذه الآلات" "عاجزة في حد ذاتها". نحن ننشئ الأدوات ، وليس الزملاء ، والتهديد الحقيقي هو أننا لا نرى الفرق.

الذكاء الاصطناعي في التيارمظاهر طفيلية على الذكاء البشري. إنه يمتلك بشكل غير متجانس كل شيء تم إنشاؤه بواسطة المبدعين من البشر ويستخلص أنماطًا - بما في ذلك عاداتنا الأكثر سرية. لا تملك هذه الآلات بعد أهدافًا أو استراتيجيات ، وليست قادرة على النقد الذاتي والابتكار ، فهي تدرس قواعد بياناتنا فقط دون وجود أفكارها وأهدافها.

إنهم ، كما يقول وينر ، عاجزون في ذلكوهذا يعني أنهم مقيدون بالسلاسل أو لا يجمدوا ، لا ، ليسوا عملاء على الإطلاق - ليس لديهم القدرة على "التصرف بناءً على الأسباب" ، كما كان كانط.

على المدى الطويل ، "AI قوي" ، أوالذكاء الاصطناعي العام ، ممكن من حيث المبدأ ، ولكن غير مرغوب فيه. الذكاء الاصطناعي الأكثر محدودية ، وهو أمر ممكن في الممارسة العملية اليوم ، لن يكون شريرًا. لكنه يمثل تهديدًا - جزئيًا لأنه يمكن أن يخطئ في وجود منظمة العفو الدولية القوية.

ما مدى قوة الذكاء الاصطناعي اليوم؟

الفجوة بين نظم اليوم ولا تزال أنظمة الخيال العلمي التي تغمر الخيال الشعبي ضخمة ، على الرغم من أن الكثير من الناس ، سواء من الهواة أو المحترفين ، يميلون إلى التقليل من شأن ذلك. دعنا ننظر إلى Watson من IBM ، والتي قد تستحق الاحترام في عصرنا.

هذا العملاق هو نتيجة للغايةعملية بحث وتطوير واسعة النطاق (البحث والتطوير) ، شارك فيها العديد من الأشخاص وتصميم الذكاء لعدة قرون ، ويستخدم طاقة أكثر من آلاف المرات أكثر من الدماغ البشري. انتصاره في خطر! كان انتصارا حقيقيا ، والذي أصبح ممكنا بسبب القيود الصيغية لقواعد Jeopardy! ، ولكن حتى يتمكن من المشاركة ، كان لا بد من مراجعة هذه القواعد. كان علي أن أتخلى قليلاً عن التنوع وأضفي الإنسانية على العرض.

Watson هي شركة سيئة ، على الرغم من الدخول فيالإعلان المضلل من شركة IBM ، والذي يعد بقدرات AI على التحدث على مستوى الصوت ، وتحويل Watson إلى وكيل متعدد الأوجه معقول سيكون أقرب إلى تحويل الآلة الحاسبة إلى Watson. قد يكون Watson حالة حسابية جيدة لمثل هذا العامل ، ولكنه يمثل المخيخ أو اللوزة بدلاً من الذهن - في أحسن الأحوال ، نظام فرعي لغرض خاص يلعب دور الدعم ، ولكن ليس أيضًا نظامًا لتخطيط الأهداف وصياغتها ، اعتمادًا على تجربة المحادثة المكتسبة.

ولماذا نريد خلق التفكير ووكيل الإبداعي من واتسون؟ ربما جذبتنا الفكرة الرائعة المتمثلة في اختبار تورينج - اختبار تورينج الشهير - إلى فخ: لقد أصبحنا مهووسين على الأقل بإبداع وهم شخص حقيقي يجلس أمام الشاشة ، متجاوزًا "الوادي الشرير".

الخطر هو أنه منذ تورينجقدم مهمته - التي كانت ، أولاً وقبل كل شيء ، مهمة خداع القضاة - كان منشئو الذكاء الاصطناعى يحاولون إنجازها بمساعدة دمى بشرية مضحكة ، إصدارات "رسوم متحركة" من شأنها أن تبهر وتنزع سلاح المبتدئين. كان ELIZA Joseph Weisenbaum ، أول chatbot ، مثالاً حياً على خلق هذا الوهم ، وفي الوقت نفسه خوارزمية بسيطة للغاية يمكن أن تقنع الناس بأنهم كانوا يجرون محادثات حميمة وصادقة مع أشخاص آخرين.

كان يشعر بالقلق إزاء سهولة استعداد الناسنؤمن به. وإذا فهمنا شيئًا ما من المنافسة السنوية لاجتياز اختبار تورينج المحدود لجائزة ليبنر ، فهو أنه حتى أذكى الأشخاص الذين ليسوا على دراية جيدة ببرمجة الكمبيوتر قادوا بسهولة إلى هذه الحيل البسيطة.

موقف الناس في مجال الذكاء الاصطناعي من هذه الأساليبيختلف من الإدانة إلى الترقية ، والإجماع هو أن كل هذه الحيل ليست عميقة بشكل خاص ، ولكن يمكن أن تكون مفيدة. التحول في الموقف الذي سيكون مفيدًا جدًا سيكون بمثابة اعتراف صادق بأن androids المرسومة بالدمى عبارة عن إعلانات كاذبة يجب إدانتها وعدم تشجيعها.

كيف تحقق هذا؟ بمجرد أن نفهم أن الناس يبدأون في اتخاذ القرارات المتعلقة بالحياة والموت ، باتباع "نصيحة" أنظمة الذكاء الاصطناعى ، التي عملياتها الداخلية غير مفهومة تقريبًا ، سنرى سببًا جيدًا لأولئك الذين يحثون الناس على الثقة في مثل هذه الأنظمة للبدء في الاعتماد على الأخلاق والقانون.

أنظمة الذكاء الاصطناعى قوية جدا.الأدوات. قوية للغاية حتى الخبراء لديهم سبب وجيه لعدم الثقة في حكمهم عندما يكون هناك "أحكام" ممثلة في هذه الأدوات. ولكن إذا كان مستخدمو هذه الأداة سيستفيدون ، مالياً أو غير ذلك ، من الترويج لهذه الأدوات ، فيجب عليهم التأكد من أنهم يعرفون كيفية القيام بذلك بمسؤولية كاملة وأقصى قدر من التحكم والتبرير.

ترخيص المشغل والموافقة عليهمثل هذه الأنظمة - تمامًا كما نرخص للصيادلة ومشغلي الرافعات وغيرهم من المهنيين الذين يمكن أن يكون لأخطاءهم وأحكامهم الخاطئة عواقب وخيمة - بدعم من شركات التأمين وغيرها من المنظمات ، يُلزم المبدعين في أنظمة الذكاء الاصطناعي بالبحث عن نقاط الضعف والضعف منتجاتهم ، وكذلك تدريب أولئك الذين سوف يعملون معهم.

يمكنك تخيل نوع من الاختبار العكسي.تورينج ، حيث سيخضع القاضي للتقييم ؛ حتى يجد نقاط ضعف ، يتعدى الحدود ، الفجوات في النظام ، لن يحصل على ترخيص. للحصول على شهادة ، سيحتاج هذا القاضي إلى تدريب جاد. إن الرغبة في إسناد كائن ما إلى القدرة البشرية على التفكير ، كما نفعل عادة عند الاجتماع مع وكيل معقول ، قوية للغاية.

في الواقع ، القدرة على المقاومةالرغبة في رؤية شيء انساني شيء غريب. سيجد كثير من الناس أن زراعة هذه الموهبة مشكوك فيها ، لأنه حتى أكثر المستخدمين براغماتية في النظام يعاملون أدواتهم أحيانًا "صديقة".

مهما بعناية المصممينسوف يستبعد الذكاء الاصطناعي الملاحظات "البشرية" الخاطئة في منتجاتها ، ويجب أن نتوقع ازدهار الملصقات ، والطرق الالتفافية والتشوهات المسموح بها "للفهم" الفعلي لكل من الأنظمة ومشغليها. بنفس الطريقة التي يتم بها الإعلان عن العقاقير المزودة بقائمة طويلة من الآثار الجانبية أو الكحول على التلفزيون ، وتزويد الفيديو بوفرة من المطبوعات الدقيقة مع جميع التحذيرات القانونية ، لذلك أيضًا ، سوف يلتزم مطورو الذكاء الاصطناعي بالقانون ، لكنهم سيتطورون في التحذيرات.

لماذا نحتاج الذكاء الاصطناعي؟

نحن لسنا بحاجة وكلاء واعية اصطناعية. هناك الكثير من العوامل الطبيعية الواعية التي تكفي لأداء أي مهام مخصصة للمتخصصين والأفراد المميزين. نحن بحاجة إلى أدوات ذكية. لا تتمتع الأدوات بحقوق ولا ينبغي أن يكون لها مشاعر يمكن أن تتأذى أو يمكن "إساءة استخدامها".

أحد أسباب عدم القيام الاصطناعيالعوامل الواعية هي أنه على الرغم من أنها يمكن أن تصبح مستقلة (ومن حيث المبدأ يمكن أن تكون مستقلة ، أو تحسين الذات ، أو خلق الذات مثل أي إنسان) ، إلا أنه يجب عليهم - دون إذن خاص - مشاركة مواطن الضعف لدينا أو وفياتنا.

دانييل دينيت ، أستاذ الفلسفة منجامعة تافتس ، حددت مرة واحدة مهمة للطلاب في ندوة حول العوامل الاصطناعية والاستقلال الذاتي: أعطني المواصفات الفنية للروبوت الذي يمكنه توقيع عقد معك - وليس بديلاً يملكه شخص آخر ، ولكن بمفرده. إنها ليست مسألة فهم أسباب أو تلاعب القلم على الورق ، بل هي مسألة امتلاك وجدارة مستحقة للمركز القانوني والمسؤولية الأخلاقية. لا يمكن للأطفال الصغار توقيع مثل هذه العقود ، وكذلك الأشخاص المعاقين ، الذين يلزمهم وضعهم القانوني بأن يكونوا تحت وصاية ويفرض مسؤولية على الأوصياء.

مشكلة الروبوتات التي قد تريدهاللحصول على مثل هذه المكانة الرفيعة ، فهي ، مثل سوبرمان ، معرضة بدرجة كبيرة لعدم الإدلاء ببيانات كهذه. إذا رفضوا ، ماذا سيحدث؟ ماذا ستكون عقوبة كسر الوعد؟ سيتم إغلاقها في قفص أو تفكيكها؟ لن يكون سجن الذكاء الاصطناعي غير مريح ما لم نقم أولاً بتعطش الحرية ، والذي لا يمكن تجاهله أو إيقافه من قبل منظمة العفو الدولية نفسها. لن يؤدي تفكيك AI إلى قتل المعلومات المخزنة على القرص وفي البرنامج.

تسجيل رقمي سهل ونقل البيانات -انفراجة سمحت للبرامج والبيانات بالحصول على الخلود - في الواقع تجعل الروبوتات غير معرضة للخطر. إذا لم يكن هذا واضحًا ، فكر في كيفية تغيير أخلاق الناس إذا استطعنا إجراء نسخ احتياطي للناس كل أسبوع. القفز من جسر بدون شريط مطاطي يوم الأحد بعد النسخ الاحتياطي يوم الجمعة يمكن أن يكون قرارًا سريعًا ، ثم يمكنك مشاهدة تسجيل الوفاة المبكرة في وقت لاحق.

هذا هو السبب في أننا نخلق لا واعية -يود أن يخلق - العوامل البشرية ، ولكن نوعًا جديدًا تمامًا من المخلوقات ، بعض الأرامل ، اللاشعور ، دون خوف من الموت ، دون إلهاء للحب والكراهية ، بدون شخصية: مرايا الحقيقة التي من المؤكد أنها ستصاب بالكذب البشري.

الاستخدام البشري للبشرسوف يتغير قريبًا - مرة أخرى - إلى الأبد ، ولكن إذا تحملنا مسؤولية مسار التطور الخاص بنا ، فسنكون قادرين على تجنب الأخطار غير الضرورية.

لا توافق؟ أخبرنا عن رأيك في غرفة الدردشة الخاصة بنا في Telegram.