Tecnologia

Humanidad peligrosa: ¿por qué necesitamos inteligencia artificial inteligente?

Cuando Norbert Wiener, el padre de la cibernética, escribió suEl libro "Uso humano de seres humanos" en 1950, los tubos de vacío seguían siendo los principales componentes electrónicos, y de hecho, solo había unas pocas computadoras. Sin embargo, imaginó que el futuro, que ahora estamos viendo, con una precisión sin precedentes, cometió un error solo en detalles insignificantes.

Ante cualquier otro filósofo artificial.inteligencia, se dio cuenta de que la IA no solo imitará, y reemplazará, a los seres humanos en muchos tipos de actividad intelectual, sino que cambiará a las personas en el proceso. "Simplemente somos remolinos en un río de agua que fluye siempre", escribió. "No somos algo que simplemente vive, somos modelos que se perpetúan".

Por ejemplo, cuando mucha tentadora.Oportunidades, estamos dispuestos a pagar y aceptar los costos de las pequeñas empresas para acceder a nuevas oportunidades. Y muy pronto nos volvemos adictos a las nuevas herramientas, perdemos la capacidad de existir sin ellas. Se requieren opciones.

Esta es una historia muy antigua de la evolución, y muchos capítulos.Por eso somos bien conocidos. La mayoría de los mamíferos pueden sintetizar su propia vitamina C, pero los primates que comen principalmente frutas pierden esta capacidad incorporada. Los patrones auto-repetitivos que llamamos humanos ahora dependen de la ropa, alimentos procesados, vitaminas, jeringas, tarjetas de crédito, teléfonos inteligentes e Internet. Y mañana, si no hoy, - de la inteligencia artificial.

Wiener previó varios problemas con este estado de cosas, que Alan Turing y otros primeros optimistas de AI ignoraron. La verdadera amenaza, dijo, era:

... es que esas máquinas, aunque indefensas sí mismaspor sí solos, pueden ser utilizados por los seres humanos o bloquear a los seres humanos para aumentar su control sobre el resto de la raza, o los líderes políticos pueden tratar de controlar a sus poblaciones, utilizando métodos no políticos, sino métodos políticos, tan estrechos e indiferentes a los humanos como si Fueron inventados mecánicamente.

Obviamente, estos peligros son muy relevantes ahora.

En los medios, por ejemplo, las innovaciones en audio digital yLos videos nos permiten pagar un pequeño precio (a los ojos de los audiófilos y los amantes de las películas) por rechazar los formatos analógicos y volverse extremadamente simples a cambio, una forma muy sencilla de reproducir discos sin casi restricciones.

Pero hay un enorme precio oculto. El ministerio de la verdad de Orwell se ha convertido en una posibilidad real. Los métodos de AI para crear "registros" falsos virtualmente indistinguibles hacen obsoletas las herramientas que hemos utilizado para las investigaciones durante los últimos 150 años.

Nos queda simplemente abandonar la breve época.Evidencia fotográfica y regreso a ese viejo mundo donde la memoria y la confianza humanas eran el estándar de oro. O podemos desarrollar nuevos métodos de defensa y ataque en la batalla por la verdad. Uno de los ejemplos recientes más emocionantes fue el hecho de que destruir una reputación es mucho más económico que ganar y proteger esa reputación. Wiener vio este fenómeno muy ampliamente: "A la larga, no habrá diferencia entre armarse usted y armamento enemigo". La era de la información también se ha convertido en una era de desinformación.

Que podemos hacer La clave es la observación de Wiener de que "estas máquinas" son "indefensas en sí mismas". Creamos herramientas, no colegas, y la verdadera amenaza es que no vemos la diferencia.

Inteligencia artificial en su corriente.Manifestaciones parasitarias sobre la inteligencia humana. Él toma posesión de todo lo creado por creadores humanos de manera muy poco ceremonial y extrae patrones, incluidos nuestros hábitos más secretos. Estas máquinas aún no tienen objetivos o estrategias, no son capaces de autocrítica e innovación, solo estudian nuestras bases de datos sin tener sus propios pensamientos y objetivos.

Son, como dice Wiener, impotentes en eso.lo que significa que están encadenados o inmovilizados, no, no son agentes en absoluto, no tienen la capacidad de "actuar sobre las causas", como diría Kant.

A la larga, "IA fuerte", oInteligencia artificial general, posible en principio, pero indeseable. Incluso una IA más limitada, que es posible en la práctica hoy, no será mala. Pero es una amenaza, en parte porque puede confundirse con una IA fuerte.

¿Qué tan fuerte es hoy la inteligencia artificial?

La brecha entre los sistemas de hoy yLos sistemas de ciencia ficción que inundan la imaginación popular siguen siendo enormes, aunque muchas personas, tanto amateurs como profesionales, tienden a subestimarlos. Echemos un vistazo a Watson de IBM, que bien puede ser digno de respeto en nuestro tiempo.

Esta supercomputadora es el resultado de extremadamenteun proceso de investigación y desarrollo a gran escala (investigación y desarrollo), en el que participaron muchas personas y el diseño de la inteligencia durante muchos siglos, y utiliza miles de veces más energía que el cerebro humano. ¡Su victoria en Jeopardy! Fue un verdadero triunfo, que fue posible gracias a las restricciones en el formulario de las reglas de Jeopardy !, pero para que pudiera participar, incluso estas reglas tenían que ser revisadas. Tuve que renunciar a un poco de versatilidad y agregar humanidad para hacer el espectáculo.

Watson es una mala compañía, a pesar de entrar enLa publicidad engañosa de IBM, que promete las habilidades de conversación de la IA a un nivel de volumen, y convertir a Watson en un agente multifacético plausible sería similar a convertir una calculadora en Watson. Watson puede ser un buen caso computacional para un agente de este tipo, pero más bien un cerebelo o una amígdala en lugar de una mente, en el mejor de los casos, un subsistema de propósito especial que desempeña el papel de apoyo, pero tampoco un sistema para planificar y formular objetivos, según la experiencia conversacional obtenida.

¿Y por qué querríamos crear un pensamiento yagente creativo de watson? Quizás la brillante idea de Turing, la famosa prueba de Turing, nos atrajo a una trampa: nos obsesionamos con crear al menos la ilusión de una persona real sentada frente a la pantalla, evitando el "valle siniestro".

El peligro es que desde Turingpresentó su tarea, que era, ante todo, la tarea de engañar a los jueces; los creadores de AI intentaban lograrla con la ayuda de divertidas muñecas humanoides, versiones "de dibujos animados" que fascinaban y desarmaban a los no iniciados. ELIZA Joseph Weisenbaum, el primer chatbot, fue un ejemplo vívido de crear tal ilusión y, al mismo tiempo, un algoritmo extremadamente simple que podía convencer a las personas de que estaban teniendo conversaciones íntimas y sinceras con otras personas.

Le preocupaba la facilidad con que la gente está dispuesta.cree en ello Y si entendimos algo de la competencia anual para aprobar la prueba de Turing limitada para el Premio Lebner, es que incluso las personas más inteligentes que no están bien versadas en la programación de computadoras se guían fácilmente hacia estos simples trucos.

Actitud de las personas en el campo de la IA ante tales métodos.varía de la condena a la promoción, y el consenso es que todos estos trucos no son particularmente profundos, pero pueden ser útiles. Un cambio de actitud que sería muy útil sería una admisión sincera de que los androides pintados en las muñecas son anuncios falsos que deben ser condenados y no alentados.

¿Cómo lograr esto? Tan pronto como entendamos que las personas comienzan a tomar decisiones de vida o muerte, siguiendo el "consejo" de los sistemas de inteligencia artificial, cuyas operaciones internas son casi incomprensibles, veremos una buena razón para que quienes instan a las personas a confiar en tales sistemas comiencen a confiar en la moral y la ley.

Los sistemas de inteligencia artificial son muy poderosos.herramientas Tan poderosos que incluso los expertos tienen una buena razón para no confiar en su propio juicio cuando hay "juicios" representados por estas herramientas. Pero si los usuarios de estas herramientas se van a beneficiar, financieramente o de otra manera, de popularizar estas herramientas, deben asegurarse de que saben cómo hacerlo con total responsabilidad, máximo control y justificación.

Licencia y aprobación del operadortales sistemas, al igual que los licenciatamos a farmacéuticos, operadores de grúas y otros profesionales cuyos errores y juicios erróneos pueden tener graves consecuencias, pueden, con el apoyo de las compañías de seguros y otras organizaciones, obligar a los creadores de sistemas de inteligencia artificial a hacer un gran esfuerzo, en busca de debilidades y debilidades Sus productos, así como capacitar a quienes van a trabajar con ellos.

Puedes imaginarte una especie de prueba inversa.Turing, en el que el juez será objeto de evaluación; hasta que encuentre debilidades, intrusiones, brechas en el sistema, no recibirá una licencia. Para obtener un certificado, tal juez necesitará una capacitación seria. El deseo de atribuir a un objeto la capacidad humana de pensar, como solemos hacer cuando nos reunimos con un agente razonable, es muy, muy fuerte.

De hecho, la capacidad de resistir.El deseo de ver en algo humanizado es algo extraño. A muchas personas les resultaría cuestionable cultivar tal talento, porque incluso los usuarios más pragmáticos del sistema a veces consideran sus herramientas "amigables".

No importa cuán cuidadosamente los diseñadoresla inteligencia artificial excluirá las falsas notas "humanas" en sus productos, debemos esperar el florecimiento de las etiquetas, los desvíos y las distorsiones permisibles de la "comprensión" real de ambos sistemas y sus operadores. De la misma manera que las drogas con una larga lista de efectos secundarios o alcohol se publican en la televisión, brindan al video una gran cantidad de letras pequeñas con todas las advertencias legales, así también, los desarrolladores de inteligencia artificial acatarán la ley, pero serán más sofisticados en advertencias.

¿Por qué necesitamos inteligencia artificial?

No necesitamos agentes conscientes artificiales. Hay muchos agentes conscientes naturales que son suficientes para realizar cualquier tarea destinada a especialistas y personas privilegiadas. Necesitamos herramientas inteligentes. Las herramientas no tienen derechos y no deben tener sentimientos que puedan herirse o que puedan ser "abusados".

Una de las razones para no hacer artificial.Los agentes conscientes son que aunque pueden llegar a ser autónomos (y en principio pueden ser tan autónomos, auto-mejoradores o auto-creados como cualquier ser humano), no deberían, sin un permiso especial, compartir nuestra nuestra mortalidad

Daniel Dennett, profesor de filosofía deLa Universidad de Tufts una vez estableció una tarea para los estudiantes en un seminario sobre agentes artificiales y autonomía: dame las especificaciones técnicas de un robot que pueda firmar un contrato contigo, no un sustituto propiedad de otra persona, sino por sí solo. No se trata de comprender las causas o las manipulaciones de una pluma sobre papel, sino de la posesión y la posesión bien merecida de estatus legal y responsabilidad moral. Los niños pequeños no pueden firmar tales contratos, así como las personas discapacitadas, cuyo estatus legal les obliga a estar bajo tutela e impone responsabilidad a los tutores.

El problema de los robots que puedan querer.para obtener un estado tan exaltado es que, como Superman, son demasiado vulnerables para hacer tales declaraciones. Si se niegan, ¿qué pasará? ¿Cuál será el castigo por romper una promesa? ¿Se cerrarán en una jaula o se desmontarán? Una prisión para inteligencia artificial no será inconveniente a menos que primero carguemos la sed de libertad, que no puede ser ignorada o desactivada por la propia IA. Desmontar la IA no matará la información almacenada en su disco y en el software.

Grabación digital fácil y transferencia de datosun avance que permitió que el software y los datos obtuvieran, de hecho, la inmortalidad - hace que los robots sean invulnerables. Si esto no parece obvio, piense en cómo cambiaría la moral de las personas si pudiéramos respaldar a las personas cada semana. Un salto desde un puente sin una banda de goma el domingo después de la copia de seguridad del viernes puede ser una decisión apresurada, luego puedes ver la grabación de tu muerte prematura más tarde.

Por eso creamos no conscientes.Me gustaría crear: agentes humanoides, pero más bien un tipo completamente nuevo de criaturas, algunos oráculos, inconscientes, sin miedo a la muerte, sin distracciones para amar y odiar, sin personalidad: espejos de la verdad que casi seguramente estarán infectados con mentiras humanas.

Uso humano de los seres humanos.cambiará pronto, una vez más, para siempre, pero si asumimos la responsabilidad de nuestra trayectoria de evolución, podremos evitar peligros innecesarios.

No estoy de acuerdo? Cuéntanos tu opinión en nuestra sala de chat en Telegram.