Inteligencia artificial

Y mientras tanto, en Silicon Valley…

Cuánto cuesta sustraerse a la crisis del Covid-19, ¿verdad?. cuesta eludir la queja y el pesimismo en las conversaciones; cuesta evitar en nuestros e-mails alguna coletilla -comprensible humanamente- como “esta locura que estamos viviendo” o “con la que está cayendo”.

Pero cuidado, estos tics podrían agotar nuestras baterías de momentum, impulso, ilusión. La actitud de resignación lleva inconscientemente a muchas cabezas a la parálisis. Parece que han decidido que si no pueden hacer lo de antes como antes, es mejor no hacer nada.

Y mientras algunas organizaciones sucumben al sentimiento de parálisis, en lugares como Silicon Valley la innovación no para. Siguen a lo suyo. Sin pausa.

Y hoy quiero hablarte de una tecnología que me ha impresionado tanto como lo hizo en su momento el iPhone. Me tiene literalmente boquiabierto desde hace semanas.

Fue a mediados de agosto cuando Open AI, la firma de inteligencia artificial liderada por el inventor y empresario Elon Musk, puso a disposición de científicos y desarrolladores el modelo GPT-3. Luego explicaré qué es un modelo de Inteligencia Artificial, pero para entendernos, es parecido a un Alexa o un Siri. Es decir, esa aplicación recibe comandos o instrucciones de un usuario, entiende lo que se le pide y genera una respuesta.

Pero lo que el GPT-3 puede hacer no es encender una luz o decirte cuántos años tiene Luis Fonsi. GPT-3 va mucho más allá. GPT-3 es capaz de resolver casi cualquier tarea intelectual a partir de unas enseñanzas básicas que se le muestren.

Imagina que a un bebé le enseñaras qué significan las palabras papá, mamá, casa, coche y le leyeras un párrafo del Quijote. Si ese bebé aprendiera como lo hace GPT-3, podría mantener una conversación en castellano con sólo darle esas instrucciones básicas.

Difícil de creer, ¿verdad? Déjame que te muestre algunos ejemplos concretos. Quienes han tenido acceso a la beta de ese programa se pusieron a experimentar a primeros de agosto, y en unos días presentaron al mundo algunos ejemplos de lo que GPT-3 puede hacer.

1. Mantener conversaciones

Como esta:

2. Explicar conceptos complejos de un modo llano

En uno de los prototipos desarrollados, GPT-3 logra explicar “en lenguaje sencillo” conceptos cono los siguientes:

3. Redactar artículos a partir de una frase

A GPT-3 le basta con un títular como “La relación entre el ejercicio físico y la productividad”. Con esa idea, este modelo redacta este texto y lo posiciona en Google de tal forma que en pocos días el artículo logró 50.000 lecturas.

4. Diseñar aplicaciones y bocetos de un interfaz

En este caso recurro al vídeo para que lo puedas ver por ti mismo.

En el primer ejemplo, GPT-3 diseña una aplicación móvil

En este segundo ejemplo, hace la página home de Google con hojas de estilo

5. Desarrollar aplicaciones a partir de una instrucción

Otro ejemplo sencillamente genial. Este ejemplo recoge una petición expresada en pocas palabras “haz un botón con el nombre dado y cada vez que lo pulse generas una cifra aletatoria entre 1 y 6”.

6. Mantener correspondencia ficticia con un personaje histórico o aprender con ese persona

En este prototipo, llamado AIWriter, el programador Andrew Mayne escribe a la escritora Jane Austen y le pregunta lo siguiente: Si sus personajes vivieran en el siglo XXI, ¿cómo usarían las redes sociales?

Esto es lo que contesta Austen:

Y en esta otra demo, Elon Musk te enseña lo que quieras saber sobre cohetes:

¿Cómo lo hace?

Eso es lo más interesante. GPT-3 es la tercera versión de un modelo de Inteligencia Artificial. Y su aparición marca un antes y un después respecto a los modelos anteriores presentados por Google o IBM. ¿Por qué? Porque todo lo que GPT-3 sabe lo ha aprendido sin ayuda de humanos. Este ordenador aprende solo.

Para entender con mayor detalle el paso adelante que supone el GPC-3, a continuación explico lo que es un modelo de Inteligencia Artificial.

Un modelo es la combinación de tres elementos:

  • Unas instrucciones sobre lo que la máquina tiene que aprender, así como un diseño básico de su “cerebro”, o sea, de los elementos que componen el sistema (equivalentes a las neuronas de nuestro cerebro), y de las conexiones que unen esos elementos (las sinapsis en el cerebro humano).
  • Una base de ejemplos de los objetos que observará para aprender, normalmente etiquetados previamente por un ser humano.
  • Un servidor de gran capacidad de proceso que es como la energía que da al modelo movimiento y velocidad. Es lo que le permite ejecutar trillones de operaciones y hacer crecer la red neuronal originaria con todo lo que el modelo va aprendiendo.

Voy a poner un ejemplo sencillo para que se entienda.

¿Cómo se enseña a una máquina a diferenciar un gato de un perro en una imagen? Primero, una persona etiqueta imágenes de perros y de gatos. Con eso está diciéndole al programa: esto es un perro y esto es un gato. Y el ordenador aprende qué rasgos diferencian una especie animal de la otra analizando cientos o miles de imágenes. Hace pruebas para que un humano revise su grado de acierto, y así cada vez va siendo más riguroso en su análisis.

En el caso del GPT-3 ¿qué se ha hecho?

  • Se le ha “metido” en su memoria todo lo que se ha publicado en Internet; así como cientos de bibliotecas completas. Para hacerse una idea de las dimensiones de los datos que conoce este modelo, toda la Wikipedia en inglés con sus 6 millones de artículos sólo ocupa el 0,6 por ciento de su capacidad.
  • A continuación, se le ha dado una sola instrucción: analiza lo que te he metido en tu cerebro y obtén tú las relaciones que existen entre unos elementos y otros; entre unas palabras y otras; en la sintaxis.
  • Durante meses, GPT-3 ha hecho lo que se le ha encomendado, y el resultado es que ahora sin necesidad de introducir en su memoria nuevos datos, es capaz de aprender casi cualquier cosa a partir de unos ejemplos básicos. Eso es lo que hace posible que GPT-3 escriba artículos o mantenga conversaciones ficticias. Conoce a fondo todo lo que se ha publicado sobre un tema o lo que ha escrito una firma conocida, y es capaz de extraer conceptos aplicados a uno de los miles de estilos que ha leído.

En definitiva, lo que diferencia este modelo de los que existían hasta la fecha es que el GPT-3 es capaz de aprender cualquier tarea relacionada con el lenguaje sin necesidad de ampliar sus bases estructurales ni de adquirir información nueva. Sé que no es fácil de entender a la primera. Que tampoco podemos aventurar todavía en qué tipo de productos o soluciones va a aplicarse. Pero sí es posible pensar en algunas de las implicaciones que tiene esta tecnología, que Open AI ha empezado ya a comercializar.

Implicaciones

Algunas de las ideas con las que grandes de Internet como Reddit están trabajando ya y que verán la luz durante los próximos meses serían las siguientes:

  • GPT-3 puede moderar los miles de mensajes y comentarios que circulan por Reddit.
  • GPT-3 podría gestionar servicios de atención al cliente y soporte de grandes compañías.
  • GPT-3 podría asesorar a consejos de Administración de empresas en la toma de decisiones.
  • GPT-3 podría generar por sí solo cursos de formación sobre cualquier tema.
  • GPT-3 podría sustituir a Alexa o Siri en otro nivel de servicio: escribiendo correos de respuesta en nuestro nombre; haciendo presentaciones en Powerpoint con nuestra dirección, haciendo resúmenes de grandes textos para nosotros… las posibilidades son muchas.
  • Y desde el punto de vista económico, según el fondo de capital riesgo Andreesen Horowitz, esta tecnología abaratará los desarrollos para empresas en el área de la Inteligencia Artificial de forma exponencial: lo que hasta ahora costaba 5 millones de euros va a pasar a costar 100.000

Ahora bien, tengamos en cuenta que lo que Open AI nos está mostrando es una tecnología que necesita depuración -comete algunos errores de bulto- y cuyo planteamiento como producto todavía no está maduro. Los expertos calculan que se requiere entre 5 y 10 años para que esta tecnología tenga cara y ojos.

La demo es a la vez alucinante y aterradora, llena de posibilidades constructivas o destructivas. Pienso en los desarrolladores de código; o en los diseñadores; o en los abogados; o en los periodistas… En cualquier caso, mi recomendación a los líderes de cualquier organización que aspira liderar el futuro es muy sencilla: prestar atención a los desarrollos que se están produciendo en la IA. Porque quienes se anticipen y entiendan las posibilidades, reinventarán productos y servicios y se adelantarán al futuro.

Gustavo Entrala diseña proyectos de futuro para marcas e instituciones. Es especialista en ideación de productos, estrategias de marca y cultura de innovación. Asesora a CEOs y consejos de administración en su estrategia y hace workshops sobre tendencias e innovación in-company. Está en Twitter, en LinkedIn y, cómo no, en Instagram.

Estándar

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s