General

Es hora de dar a la inteligencia artificial la misma protección que a los animales.

Universidades de todo el mundo pasan en serio.investigación en inteligencia artificial. Los gigantes tecnológicos lo están desarrollando activamente. Lo más probable es que muy pronto tengamos inteligencia artificial, en sus habilidades de pensamiento al nivel de ratones o perros. Y eso significa que es hora de pensar que tal inteligencia artificial necesitará una protección ética, que generalmente damos a los animales.

¿Daña la inteligencia artificial?

Hasta ahora, en discusiones sobre el tema "Derechos de AI" oLos "derechos de los robots" estaban dominados por preguntas sobre qué obligaciones éticas habríamos impuesto a los AI con inteligencia humana o superior, como los Datos de Android de Star Trek o Dolores del Mundo Salvaje Oeste. Pero pensar en ello significa comenzar desde el lugar equivocado. Antes de crear una IA con cualidades humanas que merezca la ética humana, crearemos una AI menos compleja que merece derechos éticos, en el mejor de los casos, los animales.

Ya hemos empezado a ser cautelosos en la investigación, enque ciertos animales están involucrados. Los comités especiales evalúan las propuestas de investigación para garantizar que los animales vertebrados no se maten innecesariamente y no se sometan a un sufrimiento excesivo. Si las células madre humanas o las células del cerebro humano están involucradas, los estándares de vigilancia son aún más estrictos. La investigación biomédica se considera cuidadosamente, pero la investigación de IA, que puede conllevar algunos de los mismos riesgos éticos, actualmente no se está estudiando en absoluto. Quizás valga la pena.

Se podría pensar que la IA no merece talProtección ética porque no posee conciencia, es decir, porque no tiene un flujo genuino de experiencia, con verdadera alegría y sufrimiento. Estamos de acuerdo con eso. Pero aquí tiene una pregunta filosófica difícil: ¿cómo sabemos que hemos creado algo que es capaz de alegría y sufrimiento? Si la IA es similar a Data o Dolores, puede quejarse y protegerse iniciando una discusión de sus derechos. Pero si la IA no puede expresarlo como un ratón o un perro, o por alguna otra razón no nos informa sobre su vida interior, tal vez no podrá informar sobre el sufrimiento. Pero después de todo los perros pueden alegrarse bastante y sufrir.

Aquí viene un misterio y dificultad, porqueque el estudio científico de la conciencia no ha alcanzado un consenso sobre qué es la conciencia y cómo decirnos si está presente o no. Según algunas ideas, por así decir, liberales, para la presencia de la conciencia, solo la presencia de un proceso de procesamiento de información bien organizado es suficiente. Puede que ya estemos en el umbral de tal sistema. Según otras ideas, la conciencia conservadora puede requerir funciones biológicas muy específicas, como el cerebro de los mamíferos en toda su gloria: y luego no nos acercamos a la creación de la conciencia artificial.

No está claro cuál es el enfoque correcto. Pero si la visión "liberal" es cierta, muy pronto crearemos muchas inteligencias artificiales subhumanas que merecen protección ética. Hay un riesgo moral.

La discusión de "IA de riesgo" generalmente se enfoca enLos riesgos que las nuevas tecnologías de inteligencia artificial pueden suponer para nosotros, las personas, como capturar el mundo y destruir a la humanidad o destruir nuestro sistema bancario. Los menos comunes son los riesgos éticos a los que exponemos la IA debido a un manejo inadecuado.

Todo esto puede parecer inverosímil, pero desdeLos científicos de la comunidad de desarrollo de IA buscan desarrollar sistemas de IA conscientes o sistemas de IA confiables que puedan llegar a ser conscientes, necesitamos tomar en serio este problema. Tales estudios requieren verificación ética, como la que hacemos en estudios con animales y en muestras de tejido nervioso humano.

En el caso de estudios en animales e incluso humanos.se tomaron las medidas de protección adecuadas solo después de que se detectaron violaciones éticas graves (por ejemplo, en el caso de vivisecciones innecesarias, crímenes médicos militares nazis y otros). Con la IA, tenemos la oportunidad de lograr más. Es posible que tengamos que crear comités de supervisión que evalúen la investigación de vanguardia de AI a la luz de estos problemas. Dichos comités deben incluir no solo científicos, sino también diseñadores de inteligencia artificial, cognitivos, especialistas en ética y personas interesadas. Dichos comités se encargarán de identificar y evaluar los riesgos éticos de las nuevas formas de diseño de AI.

Es probable que tales comités cuenten todos losLa investigación actual en el campo de la IA es bastante aceptable. En la mayoría de los casos, nadie cree que estamos creando una IA con experiencia consciente que merece una consideración ética. Pero pronto podremos cruzar esta línea. Necesito estar listo.

Encontrarás material aún más interesante aquí en Zen.