Artículo publicado en la Revista Deusto Nº 149 (julio 2022).
Salvador Dalí dijo en una ocasión la ya famosa frase “no tengas miedo a la perfección, nunca la alcanzarás”. Lo que quizás no se imaginaba el pintor es que en 2022 tendríamos una red neuronal llamada DALL·E generando imágenes a partir de frases escritas en lenguaje natural y que rozan esa perfección. De hecho, el nombre de esta Inteligencia Artificial (IA) proviene de la combinación de su nombre y el robot de Pixar Wall-E.
Si bien la primera versión que sacaron en 2021 dejaba mucho que desear, solo un año después hace ya auténticas virguerías. Puedes pedir que te genere una ilustración de un “bebé panda tocando el piano al final de la galaxia en formato de arte digital” y uno de los resultados es la imagen que acompaña este artículo. Como vemos, no solo se puede indicar el objeto o sujeto, sino también la acción que tiene que representar y el estilo artístico. Además de generar diseños que respondan a nuestras ideas con solo escribirlas, también nos permite editar imágenes existentes, agregando nuevos elementos así como sustituir los que ya aparecen, teniendo en cuenta luces y sombras, texturas o reflejos. Esta increíble evolución en tan poco tiempo es prodigiosa y nos invita a imaginar qué será capaz de hacer en 5 años, por ejemplo. La herramienta, aún solo disponible para un limitado grupo de personas, revolucionará el estándar de ilustración, diseño y edición de imágenes. No solo porque en solo segundos genera lo que hemos conceptualizado en nuestra cabeza, sino porque cambiará el paradigma de un mismo contenido para muchas personas. En el futuro tendremos elementos exclusivos creados a la carta para cada persona y gusto, que además habrá aprendido tras el análisis de nuestra baba de caracol digital. Es decir, un planteamiento muy parecido a BEN (Branded Entertainment Network), que aplica datos, segmentación e IA para adaptar los productos que se muestran en pantalla al perfil de la persona que está viendo una serie de televisión o una retransmisión deportiva, por ejemplo. Es decir, se muestran unos productos u otros en función de nuestros hábitos de consumo.
La organización que está tras este proyecto es OpenAI, creada por empresarios como Elon Musk, cofundador de Tesla y SpaceX, y Reid Hoffman, cofundador de LinkedIn (entre otros). En sus orígenes, se trataba de una organización sin ánimo de lucro cuyo objetivo era investigar y democratizar el acceso a la IA en general. Sin embargo, en 2020 se convirtió en una empresa, asociándose con Microsoft. Otro de sus proyectos estrella es GPT-3, que permite generar lenguaje escrito a partir de un párrafo que el propio sistema se encarga de completar de la forma más coherente posible.
Google no se queda a la zaga en este ámbito y también ha presentado en mayo su proyecto Imagen, un modelo de difusión de texto a imagen con un grado de fotorrealismo sin precedentes y un profundo nivel de comprensión del lenguaje.
Tanto Google como OpenAI, son conscientes de las amplias posibilidades de uso, pero también de los desafíos sociales y éticos que estos nuevos modelos de difusión pueden ofrecer. Por ello aún no han abierto estas tecnologías a todo el mundo. Por ejemplo, tendrán que hacer frente a los sesgos aprendidos por esta IA o la proliferación de fake news (o paparruchas, como recoge nuestro diccionario). En el primer caso, ya se ha alertado de que las imágenes que genera DALL·E cuando se le pide que represente “nurse”, “personal assistant” o “flight attendant” corresponden solo a mujeres. Sin embargo, cuando las palabras son “lawyer” o “CEO”, solo aparecen hombres. Y es que estás IAs aprenden de grandes conjuntos de datos extraídos de la web, en su mayoría no seleccionados. Si bien este enfoque ha permitido avances algorítmicos rápidos en los últimos años, los conjuntos de datos de esta naturaleza a menudo reflejan estereotipos sociales, puntos de vista opresivos y asociaciones despectivas o dañinas con grupos ya marginados. Solo un grupo con privilegios tiene capacidad de crear más contenido digital y sirve como ejemplo para crear patrones, representando desde esos privilegios a toda la sociedad en su conjunto. Estos sesgos no son solo de género. También hay raciales, de edad, clase social, religión… e incluso de ubicación. Por ejemplo, hay estudios que muestran cómo sistemas de reconocimiento de objetos como Google Cloud Vision, Amazon Rekognition o IBM Watson tienen un 15% más de precisión al analizar fotografías cotidianas de objetos (como el jabón de manos) tomadas en Estados Unidos, que cuando se tomaban en lugares como Somalia o Burkina Faso.
Según las predicciones del Foro Económico Mundial, en 2025 casi la mitad del trabajo existente en la actualidad será para las máquinas. Pero hasta ahora, cuando hablábamos de que venía el lobo a destruir empleos, solíamos dejar fuera a los que tenían algún vínculo con la creatividad. Esta evolución de la IA nos mueve los cimientos de nuestras creencias, generando además sentimientos encontrados al reducir la creatividad humana a modelos estadísticos encapsulados en “unos y ceros”. Ahora bien, parece claro que este modelo digital, que convivirá con el analógico, viene para quedarse. ¿Seremos capaces de hacer frente a los retos que nos plantea?
Gran artículo Lorena, coincido y señalo la preocupación laboral entorno a la IA.
Si bien la IA es motivo de asombro para todos, sobre todo al ver cosas como Dall-E, aunque en mis pruebas no obtuve resultados tan optimistas como los tuyos, al menos no de buenas a primeras, no se yo hasta que punto el auge de la IA es motivo de celebración para muchos.
Pues como bien dices en el artículo el empleo se ve amenazado y no ya en los ámbitos laborales donde lo que se trabaja son meramente acciones funcionales o mecánicos sino incluso en el creativo y conversacional.
La preocupación que me produce a mi es alta, pues en mi desempeño diario, soy principalmente programador y blogger, llevo probando la IA, concretamente una denominada copilot en mi día a día desde hace ya casi un año y en la asistencia a la redacción de artículos algo más de 7 meses.
En lo primero, cuando programas, de alguna forma escribes, y es sorprendente como en una pausa de 3 segundos la IA es capaz de mostrarte la siguiente porción de código a continuación y que probablemente estabas pensando como desarrollarla en ese momento. Por ejemplo una secuencia con un complejo condicional de 20 o más líneas de código.
Lo sorprendente es que lo ves escrito tal y como tu harías, con tu estilo, porque cada programador tiene uno, algo que se ven en la forma de escribir, nombrar variables, etc.
Por supuesto, escribirá el código por ti exento de errores, y lo más impresionante incluso dejará dentro del código los mismos comentarios mnemotécnicos que uno mismo se deja en el código fuente escritos y que sólo son accesibles por el programador, para meses o años más tarde, cuando por evolución o por seguridad toca actualizar el código escrito previamente.
Por si sirve, por si aporta, escribí mi experiencia en un artículo, te dejo el enlace: https://www.tiroriro.com/la-inteligencia-artificial-en-2022/