¿Cómo pueden las organizaciones prepararse para la IA generativa?

shadow

 

En medio de la reciente exageración en torno a ChatGPT y la inteligencia artificial generativa (IA), muchos están ansiosos por aprovechar el potencial cada vez más sofisticado de la tecnología.

Sin embargo, los hallazgos de la encuesta de IA de América del Norte 2022 de Baker McKenzie indican que los líderes empresariales actualmente pueden subestimar los riesgos relacionados con la IA para su organización. Solo el 4%de los encuestados de nivel C dijeron que consideran que los riesgos asociados con el uso de la IA son “significativos”, y menos de la mitad dijeron que tienen experiencia en IA a nivel de la junta.

Estas cifras ponen de relieve una realidad preocupante: muchas organizaciones no están preparadas para la IA, ya que carecen de la supervisión y la experiencia adecuadas de los principales responsables de la toma de decisiones para gestionar el riesgo. Y si no se abordan, es probable que los puntos ciegos organizacionales en torno al despliegue ético y efectivo de la tecnología eclipsen las oportunidades transformadoras al tiempo que hacen que las organizaciones pierdan el ritmo del crecimiento explosivo de la tecnología.

¿Cómo está cambiando la IA generativa el panorama de riesgos?

En estos días, el progreso y la adopción relacionados con la IA están ocurriendo a un ritmo exponencial, algunos argumentan demasiado rápido.

Si bien este crecimiento exponencial ha renovado el enfoque en el uso de la IA, la realidad es que académicos, científicos, responsables políticos, profesionales del derecho y otros han estado haciendo campaña desde hace algún tiempo para el uso ético y legal y el despliegue de la IA, particularmente en el lugar de trabajo donde abundan las aplicaciones existentes de IA en la función de recursos humanos (por ejemplo, adquisición de talento, tareas administrativas, capacitación de empleados).

Según nuestra encuesta, el 75% de las empresas ya utilizan herramientas y tecnología de IA para fines de contratación y recursos humanos.

En esta nueva fase de la IA generativa, los principios básicos en torno a la adopción de la IA, como la gobernanza, la rendición de cuentas y la transparencia, son más importantes que nunca, al igual que las preocupaciones sobre las consecuencias de una IA mal implementada.

Por ejemplo, los algoritmos no controlados pueden dar lugar a resultados sesgados y discriminatorios, perpetuando las desigualdades y frenando el progreso de la diversidad de la fuerza laboral. La privacidad de los datos y las violaciones son otra preocupación, que ocurre fácilmente a través de la no anonimización y la recopilación de datos de los empleados.

La IA generativa también ha dado paso a nuevas consideraciones de PI, planteando preguntas sobre la propiedad de las entradas y salidas de programas de terceros y las consiguientes preocupaciones de infracción de derechos de autor.

En términos generales, hemos visto a gobiernos y reguladores luchando para implementar legislación relacionada con la IA y mecanismos de aplicación regulatoria. En los Estados Unidos, un enfoque clave de la legislación emergente será el caso de uso de la IA en la contratación y las operaciones relacionadas con los recursos humanos.

Los litigios, incluidas las acciones colectivas, también están en el horizonte. Ya estamos viendo la primera ola de litigios generativos de PI de IA en los Estados Unidos, y estas primeras decisiones judiciales están dando forma al panorama legal sin regulación existente.

Las organizaciones que implementan IA generativa también deben asumir que los datos introducidos en las herramientas y consultas de IA serán recopilados por proveedores externos de la tecnología. En algunos casos, estos proveedores tendrán derechos para usar y/o divulgar estos insumos.

A medida que los empleadores buscan equipar a sus fuerzas laborales con herramientas generativas de IA, ¿están poniendo en riesgo los datos confidenciales y los secretos comerciales? En resumen, sí. Con todo, cada nuevo desarrollo parece abrir preguntas más rápido de lo que las organizaciones, los reguladores y los tribunales pueden responderlas.

¿Cómo pueden las organizaciones mejorar su preparación para la IA?

La IA generativa está cambiando el paradigma, y seguirán surgiendo riesgos en torno a casos de uso específicos. Para mantenerse a la vanguardia, las organizaciones deberán mover los enfoques actuales más allá de los esfuerzos aislados y reunir funciones discretas bajo el paraguas de un marco de gobernanza sólido.

Si bien muchas organizaciones confían en los científicos de datos para encabezar las iniciativas de IA, todas las partes interesadas relevantes, incluidas las legales, la C-suite, las juntas, la privacidad, el cumplimiento y los recursos humanos, deben participar en todo el proceso de toma de decisiones.

Esta brecha de representación quedó clara en los resultados de nuestra encuesta. Actualmente, solo el 54% de los encuestados dijo que su organización involucra a Recursos Humanos en el proceso de toma de decisiones para las herramientas de IA, y solo el 36%de los encuestados dijo que tiene un Director de IA (CAIO) en su lugar.

En este entorno de alto riesgo, la CAIO desempeñará un papel fundamental para garantizar que se implemente una gobernanza y supervisión relevantes a nivel de C-Suite e involucrará a Recursos Humanos en la capacitación y el fomento de un equipo de IA multifuncional.

Junto con esto, las organizaciones deben preparar y seguir un marco de gobierno interno que tenga en cuenta los riesgos empresariales en todos los casos de uso y permita a la empresa realizar de manera eficiente los ajustes de cumplimiento correctos una vez que se identifican los problemas.

El riesgo para las empresas sin estructura de gobierno de IA y falta de supervisión por parte de las partes interesadas clave, o que dependen al por mayor de herramientas de terceros, es el uso de herramientas de IA de una manera que crea responsabilidad legal organizacional (por ejemplo, reclamos por discriminación).

Prácticamente toda la toma de decisiones, ya sea basada en IA o de otro tipo, crea sesgos. Las empresas que utilizan estas herramientas deben desarrollar un marco que identifique un enfoque para evaluar el sesgo y un mecanismo para probar y evitar el sesgo ilegal, así como garantizar que se cumplan los requisitos relevantes de privacidad de datos.

Los esfuerzos para combatir el sesgo deben apoyarse aún más con medidas eficaces para las pruebas previas y posteriores al despliegue.

Las empresas que implementan IA también deben asegurarse de que existan procesos que proporcionen una comprensión clara de los conjuntos de datos que se utilizan, la funcionalidad algorítmica y las limitaciones tecnológicas, ya que la legislación propuesta probablemente incluirá requisitos de informes.

La perspectiva final para la IA

La conclusión es simple: la IA se está adoptando amplia y rápidamente y proporciona muchos beneficios. Pero se está implementando y desarrollando tan rápidamente que la supervisión estratégica y la gobernanza se vuelven aún más críticas para su uso responsable y mitigación de riesgos.

Muchas organizaciones no están preparadas para la IA y subestiman los riesgos, lo que dificulta la voluntad de implementar esta tecnología sin las barreras de protección adecuadas.

Afortunadamente, al establecer estructuras sólidas de gobernanza y supervisión, las organizaciones pueden resistir estas mareas tecnológicas sin importar dónde se encuentren en sus viajes de IA.

Más allá de esto, la solución a largo plazo para gestionar el riesgo relacionado con la IA dependerá de que las partes interesadas informadas de los sectores legal, regulatorio y privado unan fuerzas para avanzar en la legislación, los códigos de práctica o los marcos de orientación que reconozcan tanto las oportunidades como los riesgos que presenta la tecnología.

Con un marco seguro, las organizaciones pueden permitirse implementar tecnología de IA y aprovechar sus beneficios con mayor confianza.

Fuente: tynmagazine.com

También puede leer

Spotify: herramienta de DJ usa Inteligencia Artificial para recomendar canciones

Meta lanza la IA generativa AudioCraft: Cómo funciona