COMUNICAR EN TIEMPOS DE ALGORITMOS

En un escenario de transformación digital como en el que hoy estamos inmersos, la comunicación es fundamental para gestionar y explicar los cambios que está produciendo la tecnología. Al respecto, los algoritmos necesitan de un uso meticuloso: en caso contrario, pueden llegar a ser contraproducentes.

inteligencia artificial

Según un artículo publicado en la revista Ethic por Bárbara Yuste, Directora de Comunicación en Atrevia y autora del libro ‘La comunicación en tiempos de algoritmos‘ (Pirámide); la comunicación juega un papel fundamental para permitirnos explicar y gestionar los algoritmos de una manera que nos beneficien y no perjudiquen tanto como usuarios como generadores de contenido.

A continuación se expone un resumen de su obra:

La inteligencia artificial (IA) ha ganado terreno dentro de las organizaciones, siendo muchos los usos que se pueden dar a esta tecnología. Dentro de la comunicación, aunque sus aplicaciones son múltiples, como ilustra la automatización de contenidos y de determinadas tareas rutinarias, existe una aportación clave en el ámbito empresarial: la protección de un bien tan preciado como la reputación. Los sistemas basados en el aprendizaje profundo (o deep learning) brindan a las corporaciones un refuerzo de las capacidades humanas en el tratamiento de datos masivos desestructurados para obtener patrones de posibles amenazas que puedan dañar la reputación.

Esa capacidad que otorga la inteligencia artificial para analizar ingentes volúmenes de datos es fundamental para revelar riesgos emergentes en las conversaciones que se pueden producir, por ejemplo, en las redes sociales y en otras plataformas digitales de la organización en cuestión. Un análisis del que, además, se pueden extraer lo que denominamos como «puntos de dolor» o aspectos críticos que la marca debería estar obligada a resolver de manera inmediata para no sufrir una crisis de mayor dimensión. Lo cierto es que la inteligencia artificial es la mejor aliada para las compañías a la hora de identificar amenazas que hoy, debido a un contexto global y cambiante, no se pueden detectar con recursos más rudimentarios y poco rigurosos.

La escucha y monitorización de miles de millones de comentarios en los distintos canales donde una marca tiene presencia es esencial no solo para cuidar la reputación corporativa, sino para gestionar una posible crisis en caso de que la prevención haya fallado. La profundidad y el detalle que proporcionan los sistemas construidos mediante IA a la hora de evaluar y analizar la información vertida por los diferentes grupos de interés es esencial para que los profesionales puedan actuar con garantía de éxito, sofocando los problemas reputacionales de manera inmediata y con mínimas repercusiones.

A pesar de sus ventajas, la utilización inadecuada de los algoritmos puede devenir también en una crisis reputacional.

No es su única virtud: los sistemas inteligentes pueden incluso ayudar al desarrollo de programas de capacitación ad hoc para quienes lideran la comunicación, aportando situaciones e implicaciones plausibles sobre una base probabilística, ofreciendo las mejores prácticas y comportamientos que se han de adoptar en casos simulados. No hay manera más efectiva de enfrentarse a una crisis que experimentando los efectos como si fueran realidad, involucrando a los equipos, midiendo los tiempos de reacción y la eficacia de las medidas tomadas; esto es posible en la actualidad a través del uso de la IA.

No obstante, se da la paradoja de que la utilización inadecuada de los algoritmos puede devenir también en una crisis reputacional. Esto es, de hecho, lo que ocurrió en 2014 con el sistema inteligente construido por Amazon, el gigante del comercio electrónico. El objetivo del sistema era dar apoyo en la revisión de la ingente cantidad de currículum recibidos por la compañía: la herramienta se alimentó basándose en los archivos de los últimos diez años de la compañía, programándose para que adjudicase a cada candidato una puntuación de una a cinco estrellas, pero un año después la empresa se percató de que la máquina discriminaba a las mujeres candidatas en favor de los hombres para desempeñar el puesto de desarrollador de software y otros puestos técnicos. En la investigación que se realizó posteriormente se concluyó que al haber entrenado al sistema de inteligencia artificial con los perfiles de empleo de hacía una década, cuando la mayoría de los postulantes eran hombres, los algoritmos penalizaban los currículum que incluían la palabra «mujeres». La compañía reaccionó de inmediato para que los programas entrenados dejaran de discriminar a las mujeres, pero al no conseguirlo desistieron en el proyecto: los hechos llegaron a los medios y la empresa tuvo que afrontar la crisis creada. No ha sido, sin embargo, el único caso. 

La eliminación de sesgos en el proceso de aprendizaje de los sistemas de inteligencia artificial es enormemente complejo, ya que depende de múltiples factores, tanto técnicos como humanos. Para evitar esta clase de problemas, lo más preciso es que las organizaciones tomen medidas –como la creación de comités éticos– que dejen claro dónde y con qué objetivo se utilizan estos sistemas. 

Algunas corporaciones han ido un paso más allá y han aplicado el juramento hipocrático asumido por los médicos para los diseñadores y desarrolladores: se trata de hacer conscientes a estos grupos profesionales de su responsabilidad en el desarrollo de tecnologías basadas en inteligencia artificial.

Desde la óptica de la comunicación, y dado el impacto que la IA puede tener en la reputación corporativa, es imprescindible que quienes gestionan este área en la organización incidan en la transparencia, informando con detalle a todos sus stakeholders del uso que hacen de los algoritmos. Contar cómo y para qué se han desarrollado estos sistemas inteligentes, así como realizar auditorías de impacto, constata que la compañía ha asumido un compromiso ético en la aplicación de la tecnología. Una comunicación clara, honesta y transparente es la mejor garantía para evitar cualquier riesgo reputacional derivado de la inteligencia artificial.


Fuente: https://ethic.es/secciones/medioambiente/

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *