Los ‘datos sucios’ embarran el desembarco de los algoritmos en las empresas

La calidad de los datos es una cuestión fundamental para la correcta ejecución de aplicaciones de inteligencia artificial (IA) generativa.

Los datos sucios pueden producirse por varias razones. Puede tratarse de información que se ha introducido incorrectamente, puede ser el resultado de un cálculo erróneo o incluso puede deberse a que proceda de dos fuentes distintas.

Una de las consecuencias más graves de introducir datos erróneos en la IA generativa es que el sistema puede ‘alucinar’

Dentro de las organizaciones, a veces ocurre que los mismos datos pueden estar
almacenados de forma distinta en dos bases de datos diferentes.
Uno de los primeros pasos para resolver este tipo de problemas es gestionarlos y
normalizarlos adecuadamente, es decir, definir qué miden los datos, cómo se introducirán en la
base de datos, cómo se calcularán, quién tendrá que registrarlos y quién será el responsable
de gestionar esta información dentro de la empresa. Es necesario invertir en herramientas
tecnológicas para homogeneizar los datos y establecer una cultura dentro de la organización
centrada en cuidar su calidad.

Existen soluciones automáticas, como las que ofrece la empresa Datarmony, que
tratan de corregir e identificar errores en los datos antes de que causen problemas graves. El
objetivo de estas soluciones es mejorar la fase de recogida de datos para que estos se
almacenen correctamente. «La calidad de los datos es un tema del cual nos damos cuenta de
su importancia cuando perdemos ventas o clientes», explica Enric Quintero, CEO de la compañía.

Link a la noticia:

https://www.abc.es/economia/datos-sucios-embarran-desembarco-algoritmos-empresas-20240429145514-nt.html