عام

أنت تدرك على الفور أنه قبل الاباحية. هل يفهم الكمبيوتر؟

في بداية الشهر الماضي ، أعلن Tumblr ذلكسوف تحظر الاباحية. عندما دخلت سياسة المحتوى الجديدة حيز التنفيذ ، بعد حوالي أسبوعين - 17 ديسمبر - أصبح من الواضح أنه ستكون هناك مشاكل. بعد نشر نظام ذكاء اصطناعي كان من المفترض أن يحذف كل المواد الإباحية على الموقع ، قامت عن طريق الخطأ بتمييز المنشورات البريئة في 455.4 مليون مدونة على الموقع بين 168.2 مليار منشور: المزهريات والساحرات والأسماك وما إلى ذلك.

المواد الإباحية عن الذكاء الاصطناعي

على الرغم من أنه ليس من الواضح أي مرشح التلقائياستخدمت Tumblr أو أنشأت خاصة بها - الشركة لم تستجب للطلبات المتعلقة بهذا الموضوع - من الواضح أن الشبكة الاجتماعية عالقة بين سياساتها وتقنياتها. على سبيل المثال ، أدى الموقف غير المتناسق للموقع فيما يتعلق بـ "النساء اللواتي يعرضن الحلمات" والعري الفني ، على سبيل المثال ، إلى اتخاذ قرارات سياقية تثبت أنه حتى Tumblr لا يعرف ماذا يحظر على منصته. كيف تحدد شركة خاصة ما تعتبره فاحشًا؟

أولاً ، قم بحظر المحتوى الخطيرصعب لأنه في البداية من الصعب تحديد ما هو عليه. تعريف الفحش هو فخ الدب ، الذي مضى عليه أكثر من مائة عام ، في عام 1896 ، أصدرت الولايات المتحدة أولاً قوانين تنظم الفحش. في عام 1964 ، في قضية Jacobellis v. Ohio ، فيما يتعلق بما إذا كانت أوهايو يمكن أن تحظر عرض فيلم من تأليف Louis Malle ، قدمت المحكمة العليا ، ربما ، التعريف الأكثر شهرة للمواد الإباحية الصلبة اليوم: كما أفهمها ، سيتم تضمينها في وصف الاختزال ؛ وقال القاضي بوتر ستيوارت: "ربما لا يمكنني أبداً جعلها واضحة". "لكنني أعرف ما هو عليه عندما أراه ، والفيلم المرتبط بهذه الحالة ليس كذلك".

خوارزميات التعلم الآلي لها نفس المشكلة. تحاول هذه المشكلة حل براين ديلورج ، الرئيس التنفيذي لشركة Picnix ، وهي شركة تبيع تكنولوجيا متخصصة في الذكاء الاصطناعي. أحد منتجاتهم ، Iris ، هو تطبيق من جانب العميل يقوم باكتشاف المواد الإباحية "لمساعدة الأشخاص" ، كما يقول Delorge ، "الذين لا يريدون إباحية في حياتهم". يلاحظ أن هناك مشكلة إباحية منفصلة هي أنه يمكن أن يكون هناك أي شيء ، ومجموعة من الأشياء المختلفة - والصور التي ليست إباحية يمكن أن تحتوي على عناصر متشابهة. يمكن حظر صورة حفلة على الشاطئ ليس لأنها تحتوي على بشرة أكثر من الصورة الموجودة في المكتب ، ولكن لأنها على وشك الانتهاء. يقول ديلورج: "لهذا السبب يصعب تدريب خوارزمية التعرف على الصور في وقت واحد". "عندما يصبح التعريف صعبًا على الأشخاص ، يواجه الكمبيوتر أيضًا صعوبات." إذا لم يتمكن الناس من الاتفاق على ماهية الإباحية وما هو غير ذلك ، فهل يمكن للكمبيوتر أن يأمل في معرفة الفرق؟

من أجل تعليم الذكاء الاصطناعي للكشف عن الاباحية ،أول شيء عليك القيام به هو إطعامه الاباحية. الكثير من المواد الإباحية. أين يمكن الحصول عليها؟ حسنًا ، أول ما يفعله الناس هو تنزيل مجموعة من vidos من Pornhub ، XVideos ، كما يقول دان شابيرو ، المؤسس المشارك لشركة Lemay.ai الناشئة ، والذي يقوم بإنشاء فلاتر AI لعملائه. "هذه واحدة من المناطق الرمادية ذات الطبيعة القانونية - على سبيل المثال ، إذا كنت تتعلم من محتوى الآخرين ، فهل تنتمي إليك؟"

بعد تحميل المبرمجين طنالاباحية ، فهي قطع من إطارات الفيديو ، والتي ليست المواد الإباحية ، للتأكد من أن الإطارات المستخدمة لن يؤدي إلى حظر الباعة المتجولين البيتزا. تدفع المنصات الأشخاص ، في معظم الأحيان ، خارج الولايات المتحدة ، لتمييز مثل هذا المحتوى ؛ العمل منخفض الأجر وممل ، كما لو كان يعرض "كلمة التحقق". يجلسون ويقولون: هذا إباحي ، هذا هو هذا. يحتوي الفلتر على القليل ، لأن كل الإباحية تأتي مع ملصق. يكون التدريب أفضل إذا لم تستخدم الصور الفوتوغرافية فقط ، ولكن أيضًا عينات البيانات الكبيرة.

"في كثير من الأحيان ليس عليك فقط تصفية الإباحية ،يقول شابيرو: " "مثل ملفات التعريف المزيفة مع صورة لفتاة وهاتف." إنه يعني أن المشتغلين بالجنس يبحثون عن عملاء ، لكن قد يكون أي شيء ، وليس قانونيًا بالكامل. "هذه ليست إباحية ، لكنك لا ترغب في مشاهدة هذا النوع من الأشياء على نظامك الأساسي ، أليس كذلك؟" يتعلم المشرف الآلي الجيد على ملايين - إن لم يكن عشرات الملايين - أمثلة على المحتوى ، مما يعني أنه يمكن أن يوفر الكثير من ساعات العمل.

"يمكنك مقارنتها بالفرق بين الطفل ويقول مات زايلر ، الرئيس التنفيذي ومؤسس شركة Clarifai ، وهي شركة رائدة في مجال رؤية الكمبيوتر تقوم بهذا النوع من تصفية الصور للعملاء من الشركات. "يمكنني أن أخبرك بالتأكيد - منذ بضعة أشهر كان لدينا طفل. إنهم لا يعرفون شيئًا عن العالم ، وكل شيء جديد بالنسبة لهم ". علينا أن نظهر للطفل (الخوارزمية) الكثير من الأشياء لجعلها واضحة. "ملايين وملايين الأمثلة. لكن بصفتنا بالغين ، عندما أنشأنا الكثير من السياق حول العالم وفهمنا كيف يعمل ، يمكننا أن نتعلم شيئًا جديدًا من خلال مثالين فقط. " (نعم ، تعليم AI لتصفية محتوى البالغين يشبه إظهار الكثير من المواد الإباحية للطفل). شركات مثل Clarifai تنمو بسرعة اليوم. لديهم قاعدة بيانات جيدة عن العالم ، يمكنهم التمييز بين الكلاب والقطط يرتدون ملابس عارية. تستخدم شركة Zeiler نماذجها لتدريب خوارزميات جديدة لعملائها - بما أن النموذج الأصلي قد عالج الكثير من البيانات ، فإن الإصدارات الشخصية ستتطلب فقط مجموعات بيانات جديدة للعمل.

ومع ذلك ، فإن الخوارزمية من الصعب القيام بكل شيءهو الصحيح. مع المحتوى الواضح أنه إباحي ، فإنه يعمل بشكل جيد. لكن قد يصنف المصنف إعلان الملابس الداخلية بشكل غير صحيح على أنه ممنوع ، لأن الصورة تحتوي على بشرة أكثر من المكتب ، على سبيل المثال. (مع بيكيني وملابس داخلية ، وفقا لزيلر ، من الصعب للغاية). هذا يعني أن تحديد الأشخاص يجب أن يركز على هذه الحالات القصوى في عملهم ، مع إعطاء الأولوية لصعوبة تصنيف النماذج.

وما هو أصعب شيء؟

يقول زايلر: "منتديات الاباحية". "لم تستخدم النسخة الأولى من جهاز الكشف عن العري مواد إباحية للرسوم المتحركة للتدريب." في كثير من الأحيان أخطأت منظمة العفو الدولية بسبب هنتاي لم يتعرف. يقول زايلر: "بعد أن عملنا على ذلك لصالح العميل ، أدخلنا مجموعة كبيرة من بياناته في النموذج وحسنا بشكل كبير دقة مرشح الصور المتحركة ، مع الحفاظ على دقة الصور الحقيقية".

التكنولوجيا التي تم تدريسها لاستنشاق الاباحية ،يمكن استخدامها على أشياء أخرى. التقنيات الكامنة وراء هذا النظام مرنة بشكل مدهش. هذا هو أكثر من الثدي أنيمي. على سبيل المثال ، يتم استخدام بانوراما الأبجدية كمحرر تعليق تلقائي في إحدى الصحف. يعمل هذا البرنامج بشكل مشابه لمصنفات الصور ، إلا أنه يفرز حسب السمية وليس العُري. (السمية في التعليقات النصية يصعب تحديدها مثل الصور الإباحية في الصور). يستخدم Facebook التصفية التلقائية المماثلة للكشف عن الرسائل الانتحارية والمحتوى المتعلق بالإرهاب ، وحاول استخدام هذه التقنية للكشف عن الأخبار المزيفة على برنامجه الضخم.

كل هذا لا يزال يعتمد على الإنسانالإشراف؛ نحن نتعامل بشكل أفضل مع الغموض والسياق الغامض. يقول زايلر إنه لا يعتقد أن منتجه حرم شخصًا ما من العمل. أنه يحل مشكلة توسيع نطاق الإنترنت. سيظل الناس يعلمون AI ، فرز المحتوى وتمييزه بحيث يمكن AI تمييزه.

هذا هو مستقبل الاعتدال: حلول فردية جاهزة يتم توفيرها بواسطة الشركات التي تجعل أعمالها بأكملها لتدريب المزيد من المصنّعين المتقدمين للحصول على مزيد من البيانات. بنفس الطريقة التي توفر بها Stripe and Square حلول دفع جاهزة للشركات التي لا ترغب في معالجتها بمفردها ، ستقوم الشركات الناشئة مثل Clarifai و Picnix و Lemay.ai بتنفيذ الإشراف عبر الإنترنت.

دان شابيرو من Lemay.ai مليء بالأمل. "كما هو الحال مع أي تقنية أخرى ، فهي لا تزال في طور الابتكار. لذلك ، لا أعتقد أننا سنفسح المجال في حالة الفشل ". لكن هل يمكن لمنظمة العفو الدولية أن تعمل بشكل مستقل دون إشراف بشري؟ غير واضح يقول: "لا يوجد رجل صغير في صندوق السعوط الذي يرشح كل صورة". "نحن بحاجة إلى الحصول على بيانات من كل مكان لتدريب الخوارزمية عليها."

زايلر ، من ناحية أخرى ، يعتقد ذلك مرة واحدةسوف الذكاء الاصطناعي معتدلة كل شيء من تلقاء نفسها. في النهاية ، سيتم تقليل عدد التدخلات التي يقوم بها الأشخاص إلى الصفر ، أو إلى جهود ضئيلة. تدريجيا ، ستتحول جهود الشخص إلى ما لا تستطيع منظمة العفو الدولية القيام به الآن ، مثل التفكير الرفيع المستوى والوعي الذاتي - كل ما يملكه الناس.

الاعتراف بالمواد الإباحية هو جزء منها. تحديد الهوية هو مهمة تافهة نسبياً للناس ، ولكن من الصعب جدًا تدريب خوارزمية للتعرف على الفروق الدقيقة. إن تحديد العتبة عندما يقوم المرشح بوضع علامة على صورة إباحية أو غير إباحية يمثل مهمة صعبة أيضًا رياضية جزئيًا.

الذكاء الاصطناعي غير كامل.مرآة كيف نرى العالم ، تمامًا كما تمثل المواد الإباحية انعكاسًا لما يحدث بين الأشخاص عندما يكونون وحدهم. هناك بعض الحقيقة في ذلك ، لكن الصورة الكاملة ليست كذلك.

لا تنسى الاشتراك في أخبارنا