La IA generativa ofrece a las empresas la oportunidad de hacer sus negocios más eficientes y productivos. También conlleva una gran cantidad de riesgos.
Como resultado, algunas empresas han establecido reglas para el uso de IA generativa en el lugar de trabajo, con la esperanza de aprovechar al máximo las nuevas herramientas y al mismo tiempo mitigar algunos de los riesgos. Aquí un vistazo a algunas de esas reglas.
Cuidado con los sesgos que tienen estos programas
Las empresas deben ser conscientes de que los modelos de IA generativa entrenados en series de datos e información públicamente disponibles podrían reflejar sesgos demográficos en ese material.
Estos sesgos no siempre son obvios. Pero ejercer juicio humano al material generado por IA podría ayudar a aliviar parte del riesgo de sesgos, dice Jason Schloetzer, profesor asociado de la Escuela de Negocios McDonough de la Universidad de Georgetown, quien imparte Gobierno Corporativo. Las empresas pueden implementar un proceso en el que tanto los empleados individuales como los equipos dedicados de personas examinen cualquier cosa producida con la ayuda de IA generativa para garantizar que la empresa pueda respaldar el material, afirma.
No compartir información confidencial
La mayoría de los programas de IA generativa almacenan conversaciones e indicaciones ingresadas en el programa y utilizan los datos para entrenar sus modelos, lo que genera un mayor riesgo de que esa información pueda resurgir en respuesta a la búsqueda de otra persona.
Ejemplos de información que podría quedar expuesta de esta manera incluyen códigos informáticos, información de clientes, transcripciones de juntas o intercambios de correo electrónico y datos financieros o de ventas de la empresa.
Algunas empresas han restringido el uso de programas públicos de IA generativa o los han prohibido para la mayoría de los empleados debido a la preocupación por la posibilidad de que se filtre información confidencial.
Hay que elegir bien el programa de IA
Existen alternativas más seguras a los programas públicos de IA. Cuando sea posible, las empresas deberían utilizar los llamados modelos de nivel empresarial -normalmente suscripciones pagadas para empresas que ofrecen más seguridad para los datos comerciales- en lugar de versiones públicas, dice Arun Chandrasekaran, analista con énfasis en IA en la consultora Gartner.
Programas como ChatGPT Enterprise y Bing Chat Enterprise de Microsoft prometen mantener la privacidad de los datos de las empresas.
Al elegir un programa de IA generativa, las empresas deben asegurarse de comprender enteramente cómo se almacenarán los datos ingresados en los programas y quién tendrá acceso a esos datos, señala Chandrasekaran.
No confiar en que los resultados de IA no tengan errores
Tenga cuidado con las “alucinaciones” de la IA generativa, dicen los expertos. Estas son respuestas generadas por la IA, que incluyen información falsa o imprecisa, que podría engañar a cualquiera que la vea, dentro o fuera de la empresa.
“La desinformación puede erosionar la confianza”, advierte Chandrasekaran, y las alucinaciones a veces pueden parecer lo suficientemente legítimas como para pasar desapercibidas. Verificar de dónde proviene la información antes de utilizar contenido generado por IA puede ayudar a reducir las imprecisiones.
O, para ir un paso más allá, Chandrasekaran sugiere que las empresas pueden negociar sus propios contratos con proveedores de IA generativa para entrenar la IA solo en una base de datos proporcionada por la empresa, de modo que no se introduzca información externa potencialmente imprecisa.
Algunas empresas también han recurrido al desarrollo de sus propios programas para permitir a los empleados utilizar la IA generativa de forma más segura. Schloetzer dice que la mayoría de las empresas con las que ha consultado y que fomentan el uso de IA generativa en el trabajo tienen o están desarrollando algunos programas patentados para salvaguardar los datos.
Sathish Muthukrishnan, director de informática, datos y digital de la empresa de servicios financieros Ally Financial, destaca que Ally.ai, la plataforma interna de IA de la empresa, sirve como puente entre la información de la empresa y los programas externos de IA. Lo describe más como una tecnología de asistencia que siempre tiene “un ser humano en medio”.
No usar contenido generado por IA sin revelarlo
Revelar cuándo se ha utilizado la IA para generar contenido es crucial para mantener la transparencia y es particularmente importante para los empleados que atienden al cliente, dice Schloetzer. Debido a las problemáticas que podrían surgir con contenido impreciso o inapropiado generado por IA, los clientes deben saber de antemano que el material que reciben o utilizan -en una campaña publicitaria, por ejemplo- fue generado en parte por IA.
Cuidado con infringir derechos de autor
Algo del contenido generado por IA podría estar basado en trabajos protegidos por derechos de autor de un artista o escritor, lo que podría plantear problemas legales.
Los primeros casos judiciales han desestimado presuntas violaciones a derechos de autor, y la Oficina de Derechos de Autor de EU ha rechazado repetidamente las reclamaciones de derechos de autor cuando se trata de arte generado por IA, pero aún no se han decidido múltiples demandas de autores, incluyendo una demanda colectiva contra OpenAI por parte de un grupo de autores que alegan violación a derechos de autor que aún se está peleando en un tribunal de distrito de San Francisco.
La Oficina de Derechos de Autor ha estado realizando un estudio de inteligencia artificial desde agosto, y la Comisión Federal de Comercio ha expresado interés en investigar este tema, publicando un comentario sobre el estudio que cita preocupaciones de derechos de autor en torno a programas que “raspan trabajos de sitios web públicos sin consentimiento”. Pero todavía no existen reglas claras sobre el uso por parte de AI de material protegido por derechos de autor.
Hasta que tales reglas estén implementadas, algunos expertos sugieren que los equipos legales de las empresas deberían ser proactivos en revisar cualquier material generado por IA para detectar posibles problemas de derechos de autor. Los expertos dicen que las empresas también deberían considerar buscar una indemnización legal por parte de los proveedores de programas de IA generativa.
Google se unió recientemente a Microsoft y Adobe en ofrecer planes de indemnización legal para productos de IA generativa.
Comments