domingo, abril 11, 2021
  • 😎 Cotilleos
  • 🤖 Tecnología 🤖
  • ▶️ Youtubers 🔥
  • ▶️ Vídeos
Ckmagazine.org
CKmagazine

Cómo saber si la inteligencia artificial está a punto de destruir la civilización

Tiempo de lectura: 4 minutos.

Relacionados:Posts

Por qué pedirle a una IA que se explique puede empeorar las cosas

Los investigadores de Emotion AI dicen que las afirmaciones exageradas dan mala fama a su trabajo

Una sala de muebles de Ikea en constante cambio podría ayudar a la IA a navegar por el mundo

¿Podríamos despertarnos una mañana estupefactos de que ha surgido una IA súper poderosa, con consecuencias desastrosas? Libros como Superinteligencia por Nick Bostrom y La vida 3.0 por Max Tegmark, así como artículos más recientes, argumentan que la superinteligencia malévola es un riesgo existencial para la humanidad.

Pero uno puede especular sin cesar. Es mejor hacer una pregunta más concreta y empírica: ¿qué nos alertaría de que la superinteligencia está a la vuelta de la esquina?

Podríamos llamar a esos heraldos canarios en las minas de carbón de AI. Si un programa de inteligencia artificial desarrolla una nueva capacidad fundamental, eso es el equivalente a un colapso canario: una advertencia temprana de los avances de la IA en el horizonte.

¿Podría la famosa prueba de Turing servir como canario? La prueba, inventada por Alan Turing en 1950, postula que la IA a nivel humano se logrará cuando una persona no pueda distinguir la conversación con un humano de la conversación con una computadora. Es una prueba importante, pero no es un canario; es, más bien, la señal de que la IA a nivel humano ya ha llegado. Muchos científicos informáticos creen que si ese momento llega, la superinteligencia seguirá rápidamente. Necesitamos más hitos intermedios.

¿Es el rendimiento de AI en juegos como Vamos, póker o Terremoto 3, un canario? No lo es. La mayor parte de la llamada inteligencia artificial en estos juegos es en realidad humano trabajar para enmarcar el problema y diseñar la solución. La victoria de AlphaGo sobre los campeones humanos de Go fue un crédito para el talentoso equipo humano de DeepMind, no para la máquina, que simplemente ejecutó el algoritmo que la gente había creado. Esto explica por qué lleva años de arduo trabajo traducir el éxito de la IA de un desafío limitado al siguiente. Incluso AlphaZero, que aprendió a jugar Go de clase mundial en unas pocas horas, no ha ampliado sustancialmente su alcance desde 2017. Los métodos como el aprendizaje profundo son generales, pero su aplicación exitosa a una tarea en particular requiere una intervención humana extensa.

En términos más generales, el aprendizaje automático es el núcleo de los éxitos de AI en la última década más o menos. Sin embargo, el término "aprendizaje automático" es un nombre inapropiado. Las máquinas poseen solo una pequeña franja de las habilidades de aprendizaje ricas y versátiles de los humanos. Decir que las máquinas aprenden es como decir que los pingüinos bebés saben pescar. La realidad es que los pingüinos adultos nadan, capturan pescado, digerirlo, regurgitar en sus picos y colocar bocados en la boca de sus hijos. La IA también está siendo alimentada por científicos e ingenieros humanos.

A diferencia del aprendizaje automático, el aprendizaje humano mapea una motivación personal ("Quiero conducir para ser independiente de mis padres") a un plan de aprendizaje estratégico ("Tomar la educación del conductor y practicar los fines de semana"). Un humano formula objetivos de aprendizaje específicos ("Mejore en el estacionamiento paralelo"), recopila y etiqueta datos ("El ángulo estaba equivocado esta vez") e incorpora retroalimentación externa y conocimientos básicos ("El instructor explicó cómo usar los espejos laterales" ) Los humanos identifican, enmarcan y dan forma a los problemas de aprendizaje. Ninguna de estas habilidades humanas es remotamente replicada por máquinas. Las máquinas pueden realizar cálculos estadísticos sobrehumanos, pero esa es simplemente la última milla de aprendizaje.

Las máquinas pueden realizar cálculos estadísticos sobrehumanos, pero esa es simplemente la última milla de aprendizaje.

La formulación automática de problemas de aprendizaje, entonces, es nuestro primer canario. No parece estar cerca de morir.

Los autos sin conductor son un segundo canario. Están más lejos en el futuro de lo previsto por los impulsores como Elon Musk. La IA puede fallar catastróficamente en situaciones atípicas, como cuando una persona en silla de ruedas está cruzando la calle. Conducir es mucho más desafiante que las tareas anteriores de IA porque requiere tomar decisiones cruciales en tiempo real basadas tanto en el mundo físico impredecible como en la interacción con conductores humanos, peatones y otros. Por supuesto, deberíamos desplegar autos autónomos limitados una vez que reducen las tasas de accidentes, pero solo cuando se logra una conducción a nivel humano se puede decir que este canario se ha derrumbado.

Los doctores de IA son un tercer canario. La IA ya puede analizar imágenes médicas con una precisión sobrehumana, pero eso es solo una parte estrecha del trabajo de un médico humano. Un médico de IA tendría que entrevistar a pacientes, considerar complicaciones, consultar a otros médicos y más. Estas son tareas desafiantes que requieren comprender a las personas, el idioma y la medicina. Tal médico no tendría que engañar a un paciente para que piense que es humano, por eso es diferente de la prueba de Turing. Pero tendría que aproximarse a las habilidades de los médicos humanos en una amplia gama de tareas y circunstancias imprevistas.

Y aunque la prueba de Turing en sí misma no es un buen canario, versiones limitadas de la prueba podrían servir como canarios. Las IA existentes no pueden entender a las personas y sus motivaciones, o incluso preguntas físicas básicas como "¿Un jumbo jet pasará por una ventana?" Podemos administrar una prueba parcial de Turing conversando con una IA como Alexa o Google Home durante unos minutos, lo que expone rápidamente su comprensión limitada del lenguaje y el mundo. Considere un ejemplo muy simple basado en los esquemas de Winograd propuestos por el científico informático Hector Levesque. Le dije a Alexa: "Mi trofeo no cabe en mi equipaje de mano porque es demasiado grande. ¿Qué tengo que hacer?" La respuesta de Alexa fue "No lo sé". Dado que Alexa no puede razonar sobre el tamaño de los objetos, no puede decidir si "eso" se refiere al trofeo o al equipaje de mano. Cuando la IA no puede entender el significado de "eso", es difícil creer que esté a punto de dominar el mundo. Si Alexa pudiera tener un diálogo sustantivo sobre un tema rico, sería un cuarto canario.

Las IA actuales son idiotas sabias: exitosas en tareas estrechas, como jugar Go o categorizar imágenes de resonancia magnética, pero carecen de la generalidad y versatilidad de los humanos. Cada sabio idiota se construye de forma manual y por separado, y estamos a décadas de distancia de las habilidades versátiles de un niño de cinco años. Los canarios que propongo, en cambio, indican puntos de inflexión para el campo de la IA.

Oren Etzioni

Foto de cortesía

Algunos teóricos, como Bostrom, sostienen que, sin embargo, debemos planificar eventos de muy baja probabilidad pero de alta consecuencia como si fueran inevitables. Las consecuencias, dicen, son tan profundas que nuestras estimaciones de su probabilidad no son importantes. Este es un argumento tonto: puede usarse para justificar casi cualquier cosa. Es una versión moderna del argumento del filósofo del siglo XVII Blaise Pascal de que vale la pena actuar como si existiera un Dios cristiano porque, de lo contrario, corre el riesgo de un infierno eterno. Utilizó el costo infinito de un error para argumentar que un curso de acción particular es "racional" incluso si se basa en una premisa altamente improbable. Pero los argumentos basados ​​en costos infinitos pueden apoyar creencias contradictorias. Por ejemplo, considere un Dios anticristiano que promete un infierno eterno para cada acto cristiano. Eso también es muy improbable; sin embargo, desde un punto de vista lógico, es una apuesta tan razonable como creer en el dios de la Biblia. Esta contradicción muestra una falla en los argumentos basados ​​en costos infinitos.

Mi catálogo de señales de alerta temprana, o canarios, es ilustrativo más que exhaustivo, pero muestra cuán lejos estamos de la IA a nivel humano. Si un canario "colapsa", y tendremos tiempo suficiente antes de la aparición de la IA a nivel humano para diseñar "interruptores" robustos e identificar líneas rojas que no queremos que la IA cruce. La escatología de AI sin canarios empíricos es una distracción para abordar problemas existentes, como cómo regular el impacto de AI en el empleo o garantizar que su uso en sentencias penales o calificación crediticia no discrimine a ciertos grupos.

Como Andrew Ng, uno de los expertos en IA más prominentes del mundo, ha dicho: "Preocuparse por que la IA se vuelva malvada es un poco como preocuparse por la sobrepoblación en Marte". Hasta que los canarios comiencen a morir, él tiene toda la razón.

Oren Etzioni es el CEO del Instituto sin fines de lucro Allen for AI y profesor de ciencias de la computación en la Universidad de Washington.

Related Posts

Por qué pedirle a una IA que se explique puede empeorar las cosas
🤖 Tecnología 🤖

Por qué pedirle a una IA que se explique puede empeorar las cosas

Los investigadores de Emotion AI dicen que las afirmaciones exageradas dan mala fama a su trabajo
🤖 Tecnología 🤖

Los investigadores de Emotion AI dicen que las afirmaciones exageradas dan mala fama a su trabajo

Categorías

  • ▶️ Vídeos
  • ▶️ Youtubers 🔥
  • ⛳ Deportes ⚽
  • 😎 Cine
  • 😎 Cotilleos
  • 📕 Libros y Audiolibros
  • 😎 Recetas fáciles
  • 📳 Redes Sociales
  • 🔥 Remix 🔥
  • 🤖 Tecnología 🤖

Últimas entradas

  • Dónde Ver Fútbol Online GRATIS ⚽ Sin cortes y en vivo. + Especial Champions League. abril 4, 2021
  • Descargar Libros Gratis Online – ePub, eBooks, PDF y Las Mejores Páginas marzo 18, 2021
  • Los Mejores Lectores de libros electrónicos 2021 eReaders marzo 16, 2021
Revista de actualidad
  • Condiciones de uso
  • mapa del sitio
  • Más información sobre las cookies
  • Política de Cookies

© 2019 Revista de actualidad e interés general - CK Magazine

  • 😎 Cotilleos
  • 🤖 Tecnología 🤖
  • ▶️ Youtubers 🔥
  • ▶️ Vídeos

© 2019 Revista de actualidad e interés general - CK Magazine