Saltar al contenido

La singularidad puede no requerir AGI

septiembre 22, 2021
1n4Q7 QyjoIITl08pkzn0KQ

La singularidad puede no requerir AGI

Alan Tan

13 de oct de 2020·10 min de lectura

Singularidad, el punto en el que la IA puede mejorarse a sí misma más rápido que los humanos, ha sido un tema desde los años 60. IJ Good especuló en 1965 que «una máquina ultrainteligente … que puede superar con creces todas las actividades intelectuales de cualquier hombre, por muy inteligente que sea».

El bestseller de James Barrat Nuestra Invención Final llevó este tema del académico y los nerds a las preocupaciones principales (o, debería decir, miedo).

El gran difunto Stephen Hawking y siempreLos controvertidos Elon Musk son algunos de los más vocales sobre la IA, potencialmente es lo peor que le puede pasar a la humanidad en la historia de nuestra civilización. Mientras que otros como Bill Gates, Andrew Ng y algunos destacados investigadores de IA que argumentan en contra de la IA se convierten en una inminente amenaza.

Sin embargo, para aquellos que leyeron con atención, la mayor parte del desacuerdo con Hawkings fue en realidad no decir que la IA Nunca ser una amenaza, o la singularidad Nunca venir. La mayoría de los argumentos son sobre el momento oportuno. Es decir, Andrew Ng utilizó la famosa frase “Temer un aumento de robots asesinos es como preocuparse por la superpoblación en Marte” como una analogía con la amenaza de la singularidad de la IA. Si bien desde la perspectiva de un investigador de inteligencia artificial, eso es completamente correcto, si considera lo rápido que nos llevó aumentar nuestra población en 2 mil millones de humanos en esta tierra, en las últimas dos décadas, puede estar de acuerdo sin importar cuán remota sea la amenaza de superpoblación de Marte. es decir, es realmente posible (Marte es mucho más pequeño que la Tierra, 6790Km de diámetro frente a los 12750Km de la Tierra, un poco más de la mitad de la de la Tierra. Dado que el área de la superficie de una esfera es proporcional al cuadrado del diámetro, el La superficie de Marte es solo un poco más de una cuarta parte de la de la Tierra. Estoy divagando, pero espero que vean lo que dice Andrew Ng, que esta amenaza es real, es solo una cuestión de tiempo, tal vez no inmediata, pero seguramente es inevitable. ).

En la cultura popular, la mayor parte del temor en torno a Singularity es que la IA obtenga la inteligencia general que supera al humano más inteligente; a partir de ahí, se auto-mejorará y ampliará la brecha cada vez más rápido. En respuesta a esto, muchos de los argumentos «tranquilizadores» se basaron en AGI (Inteligencia General Artificial) no está a la vista; Ni siquiera entendemos cómo construir AGI … Lo cual, como ingeniero de inteligencia artificial, estoy de acuerdo.

Sin embargo, estos argumentos son, en esencia, los diseño inteligente teoría de la IA. ¿Es esta la única forma en que la IA puede alcanzar la singularidad? Nosotros, los humanos, tardamos milenios en reflexionar sobre cómo surgió nuestra inteligencia, y al menos ahora tenemos una posible teoría alternativa: la evolución.

Es posible que Singularidad puede que no necesite que se active AGI?

Evolución hacia la singularidad

Si eres un evolucionista, no te habría golpeado demasiado que los humanos son agentes inteligentes que ‘simplemente sucedieron’, sin un plano dibujado por algún otro ser más inteligente. La forma en que evolucionamos hasta convertirnos en agentes inteligentes fue a través de mutación aleatoria y seleccion natural. Debido a que nuestros antepasados ​​fueron los ‘exitosos’ cuyo gen superior aumentó sus posibilidades de supervivencia, generación tras generación, nuestros antepasados, que portaban genes probablemente mejores, fueron encuestados continuamente, lo que nos permitió convertirnos en lo que somos hoy.

También notaría que desde la historia escrita, el crecimiento de la cultura humana, la inteligencia colectiva de nuestra especie en su conjunto ha evolucionado mucho más rápido que lo que sucedió antes. Entonces, los eventos del punto de inflexión sucedieron al menos una vez antes, sin que otra superinteligencia entrara en escena (si usted es un creacionista, lo más probable es que esté de acuerdo en que los humanos no se convirtieron en el creador ~ hace ocho mil años).

¿La principal restricción? Tiempo. Se necesitaron miles de millones de años para que la forma de vida evolucionara para tenernos realmente. El factor clave es el costo del proceso, es necesario que existan grandes manadas de individuos similares, que estén sujetos al proceso de selección y sobrevivan el tiempo suficiente antes de que puedan reproducirse por sí mismos (un medio para preservar el gen con alguna mutación).

¿Puede la IA evolucionar hacia la singularidad?

Comencemos con lo que necesita Evolution: aleatorio mutación y seleccion natural.

Seleccion natural, en el caso de AI, puede comenzar como los humanos seleccionan naturalmente la IA, y es posible que ni siquiera nos demos cuenta de que lo estamos haciendo.

Recuerdo que en los días de CAPTCHA, la infame prueba que verifica si eres un robot, la gente me preguntaba: «Dicen que las empresas de inteligencia artificial usan CAPTCHA para entrenar su inteligencia artificial, pero ¿cómo sabe que respondí correctamente?» Bueno, en realidad no es necesario saber si respondió correctamente, la respuesta que eligió la mayoría de las personas sería lo suficientemente buena para que la IA aprender. Entonces, permitir que los humanos interactúen con la IA, con ingeniería inteligente, nos permitiría entrenarlos, o en el caso de la selección natural, podríamos servir como la ‘naturaleza’, seleccionar la mejor forma de IA sin siquiera saberlo. Por ejemplo, el título de Netflix que vio u omitió, se agregará y usará para entrenar la próxima iteración de su modelo de recomendación.

El mero hecho de que estés leyendo este artículo, gracias a algún algoritmo que lo llama la atención, y mientras lo lees, el sistema está aprendiendo algo sobre ti (es decir, cuánto tiempo estás en esta página), sobre mí (es decir, mi estilo de escritura), sobre cómo interactuamos (es decir, cuánto aplaude, resalta o comenta, si respondo a sus comentarios) y mejora la forma en que le recomendará los próximos artículos.

¿Te suena familiar? El aprendizaje automático (aquí usaremos el aprendizaje supervisado como ejemplo) es el proceso que proceso de entrenamiento ayuda a refinar el valor de los parámetros usados ​​en el algoritmo, el refinamiento proviene de ejecutar el modelo con el conjunto actual de parámetros, obteniendo el resultados previstos, compare el resultado pronosticado con el resultado conocido (es decir, compare la predicción de si ciertas personas leerán este artículo con si estas personas realmente lo leerán) y reduzca esa brecha (es decir, descenso de gradiente). El valor anterior se descartó en favor de un conjunto de parámetros más nuevo y mejor que generará mejores predicciones.

Sí, eso es algo muy parecido al proceso de evolución, aunque es una forma muy especializada. Los valores de los parámetros son los que se seleccionaron, descartaron o, en otras palabras, evolucionaron. La selección fue para comparar con el resultado conocido. Esta forma especial de evolución es muy limitada, no puede cambiar el algoritmo en sí, sino solo los parámetros utilizados en el algoritmo. Solo se puede seleccionar en función de resultados previamente conocidos, no se puede generalizar para adaptarse a otros problemas. Si bien esta limitación significa que no puede evolucionar a inteligencia general, el hecho alarmante es que en la mayoría de las pruebas de habilidad individual, la IA puede superar al 99,9% de los seres humanos, si no al 100%. (La computadora venció al mejor jugador de Ajedrez humano en 1997, y la IA venció al mejor jugador de Go humano en 2019).

Pérdida del progreso realizado en investigación e ingeniería de IA en las últimas décadas. Un ejemplo particularmente interesante es GAN – Generative Adversarial Networks. Si le suena desconocido, piense en Deep Fake, GAN es la técnica fundamental detrás de Deep Fakes. Todavía es solo aprendizaje profundo en su núcleo, pero mediante la ingeniería estratégica de múltiples redes neuronales interactúan de maneras particulares, una de ellas genera algo y la otra intenta saber si se trata de una falsificación generada, luego proporcionará retroalimentación al algoritmo generativo, que intentará hacer un mejor trabajo para generar otro (imagen, sonido, video, etc.) hasta que el Red de adversarios no puede distinguir la diferencia entre una cosa real y la falsificación generada.

Este proceso es un gran paso adelante en la demostración de que las técnicas de ingeniería inteligente podrían usarse para avanzar en gran medida lo que pensamos que podría ser la ‘selección’ en la IA: utiliza muestras que los humanos proporcionamos como ‘naturaleza’, y utiliza la red neuronal para descubrir el patrones de estas muestras (generalizando o abstrayendo a través de estas muestras), luego use otra red neuronal para intentar generar algo que pueda mezclarse con los patrones hasta el punto de ser indistinguible.

Si bien ninguno de estos es perfecto, son algunos ejemplos de fragmentos de técnicas que podemos aprovechar para construir un entorno en el que la «selección» pueda ocurrir de una manera cada vez mayor. Una pieza que podría cambiar las reglas del juego podría encontrarse en el artículo que escribí hace un año:

¿Es la visión estereoscópica 3D lo que necesita el Deep Learning para generalizar el modelado de la realidad?

A medida que el aprendizaje profundo, particularmente CNN en el procesamiento de imágenes, ganó su éxito y fama, también obtuvo algo serio …

medium.com

Piezas como esta diseñadas correctamente pueden ayudar a la IA a obtener retroalimentación del mundo real directamente, los robots ya pueden usar técnicas similares a esta para aprender a manipular bloques:

MIT construye un robot que se basa en la inteligencia artificial para jugar a Jenga

Un equipo de investigadores del MIT acaba de construir un robot y desarrollar un sistema basado en aprendizaje profundo que puede jugar a Jenga, un …

news.developer.nvidia.com

¿Qué pasa con el otro ingrediente de la evolución, mutación?

Este es probablemente el menos desafiante para la IA, la aleatoriedad se ha estudiado ampliamente y ya podemos incorporar la aleatoriedad de la naturaleza en el proceso de generación de números aleatorios en una extensión muy impresionante. Generar millones de números aleatorios no es necesariamente un desafío para las computadoras.

En Machine Learning, ya tenemos muchas herramientas para mejor que la aleatoriedad mejoras, el descenso de gradientes está disponible desde los años 40. Parte del avance que Geoffrey Hinton proporcionó a Deep Learning es la propagación hacia atrás, que nos permitió cambiar los valores de los parámetros de manera mucho más efectiva. Esto significa que la evolución de la IA ya es más rápida que la evolución natural, donde la mutación ocurre principalmente al azar.

El ‘santo grial’ son los algoritmos centrales fundamentalmente mutados, más allá de los valores de los parámetros o hiperparámetros que los algoritmos utilizaron, lo que hasta ahora aún no es práctico, aunque los investigadores están avanzando a pasos agigantados hacia él.

Algunas técnicas ya han aparecido. Es decir, agregue capas al azar, agregue nodos, agregue abandonos u otros ‘trucos’, seleccione y aplique aleatoriamente ciertos métodos de preprocesamiento de datos o de ingeniería de datos. Si se combina con la ingeniería inteligente, en realidad estamos muy cerca de permitir que un cierto nivel de algoritmos de IA auto-mutantes descubra un conjunto mucho más amplio de habilidades.

Pero hay más técnicas innovadoras en el horizonte, por ejemplo:

El GPT-3 de OpenAI ahora puede generar el código para usted

Desde su lanzamiento el mes pasado, el GPT-3 de OpenAI ha estado en las noticias por una variedad de razones. De ser el más grande …

analyticsindiamag.com

Si bien estos son hasta ahora primarios, el progreso en el campo de la IA no se puede medir con nuestro escala de tiempo de sentido común. Si encontramos formas de vincular la eficacia de la generación de código con las mejoras del resultado final, entonces la generación de código, incluso de forma aleatoria, puede ser muy interesante.

Lo que realmente hará que la evolución de la IA sea ultraeficiente es el bajo costo de descartando modelos menos capaces.

Es posible que no nos demos cuenta, pero eso en realidad ha estado sucediendo todo el tiempo: descartamos los modelos menos deseados todo el tiempo. El costo de descartar algoritmos o modelos menos ajustados es cercano a cero, principalmente solo el costo de tiempo y energía del cálculo. La parte realmente costosa es en realidad el tiempo de los investigadores y las computadoras más rápidas que se utilizan para ejecutar el algoritmo.

Dado algunos de los avances en el campo, podríamos estar acercándonos a liberar a los investigadores del entrenamiento de IA como niñeras. Eso reducirá aún más el costo del ‘tiempo dedicado a un modelo menos que óptimo’ y hará que el costo general de la evolución de la IA sea aún más bajo.

Si bien el silicio superior hoy en día todavía necesita el esfuerzo de los investigadores humanos, la inteligencia artificial ya es una gran parte de esto, y …

close