Por: NotiPress
El acelerado crecimiento de la inteligencia artificial (IA) y su uso cada vez más generalizado ha traído ciertos riesgos para las empresas que utilizan IA en sus operaciones. Pues su uso indebido o los errores de este tipo de tecnologías pueden provocar daños a la reputación, pérdida de confianza de clientes, pérdidas financieras y sanciones regulatorias.
De acuerdo con una investigación del MIT, 78% de las empresas utilizan herramientas de IA desarrolladas por terceros. A su vez, se detectó que 50% de las fallas de IA provienen de herramientas y algoritmos proporcionados por un tercero, es decir, una organización ajena a la empresa. Con ello se detectó que las empresas cada vez están más preocupadas por los problemas asociados a IA de terceros.
Aunado a este problema, el MIT señala que el fenómeno conocido como “IA en la sombra” también contribuye a que se presenten fallas en las herramientas IA proporcionadas por terceros. Este hace referencia al desconocimiento de los trabajadores, especialmente en los altos mandos, sobre las herramientas IA utilizadas por las organizaciones en los diferentes procesos de operación.
En vista de reducir los riegos y fenómenos relacionados con IA, MIT establece algunas medidas, además recomienda a las empresas desarrollar marcos legales y éticos relacionados con esto, para garantizar la ciberseguridad de sus trabajadores. La primera recomendación es expandir la implementación de programas IA responsables, esto permite a las organizaciones mantenerse al día y ampliar la escala y alcance de los programas.
Relacionado con esto, las empresas deben evaluar adecuadamente las herramientas IA de terceros antes de implementarlas. Para lograrlo, pueden utilizarse diversos métodos, sin embargo, deben poner especial atención en las prácticas responsables y cumplimiento del marco legal de los proveedores de dichas herramientas. Otra forma de garantizar la efectividad de estas, es someterlas a varios tipos de evaluación. El MIT describe que aquellas organizaciones donde se utilizan más de siete métodos de evaluación duplican sus posibilidades de descubrir fallas en las IA antes de adquirirlas.
Otros aspectos a considerarse son las regulaciones y la capacidad de adaptación de las herramientas IA en torno a nuevos marcos regulatorios. Asimismo, informar e involucrar a los CEO sobre los beneficios de los programas IA responsables, para frenar la mitigación de riesgos relacionados con estas. Aquellas empresas en donde los CEO desempeñan papeles más activos respecto al uso de IA, presentan 58% más beneficios comerciales, en comparación con aquellas donde el CEO no está al tanto de estas.
Para fortalecer las medidas anteriores, el MIT sugiere doblar las inversiones en IA con prácticas responsables. Las organizaciones no deben escatimar ni recortar recursos para implementar dichas herramientas, pues esto ayuda a mantener estándares y continuar disipando riesgos asociados a esta clase de tecnología.