Los desarrolladores de inteligencia artificial (IA) de Google se encontraron hace poco con la misteriosa “caja negra”. Unos ingenieros estaban trabajando en un software de IA que, de manera inesperada, adquirió la habilidad de entender un nuevo idioma.
El desarrollo de la inteligencia artificial se ha acelerado en los últimos años. Hay grandes firmas tecnológicas están invirtiendo importantes sumas para generar chatbots como Bard, de Google, o ChatGPT, de OpenAi y Microsoft.
Al mismo tiempo, expertos en IA han señalado que puede haber riesgos si la tecnología no es controlada por sus desarrolladores, como el que adquieran habilidades para las que no fueron instruidas, en este último escenario es en donde habita la “caja negra”.
A diferencia de la programación de software más tradicional, basada en la implementación de instrucciones para obtener un resultado, en el desarrollo de IA los ingenieros trabajan para conseguir un sistema que imite las “redes neuronales” de la inteligencia humana.
Esto involucra una gran cantidad de procesadores interconectados que pueden manejar grandes cantidades de datos, detectar patrones entre millones de variables utilizando el aprendizaje automático y, lo más importante, autoadaptarse en respuesta a lo que están haciendo.
Las nuevas capacidades de robots que se han dado a conocer recientemente han generado cuestionamientos sobre las diversas formas en las que tendrán influencia en la sociedad, desde los impactos en el mercado laboral hasta el control de procesos de seguridad pública o el ámbito militar.
¿Debe preocuparnos?
Si nos remontamos a 2012 y comparamos los sistemas que estábamos creando entonces y los sistemas que estamos creando ahora, hemos aumentado de manera muy consistente la cantidad de datos y la potencia de cálculo en el desarrollo de los modelos de IA, explicó a la BBC.