

De acuerdo a un estudio de la Federación Mundial de Anunciantes (WFA por sus siglas en inglés), tres de cada cuatro de las marcas más grandes del mundo ya están utilizando inteligencia artificial generativa en su marketing o estén planeando hacerlo pronto.
La expectativa es que la inteligencia artificial generativa ya está lista para impulsar la creatividad, efectividad y eficiencia del marketing, apoyando las tareas de ideación y creación de contenido, segmentación de clientes más personalizada, automatización de tareas, servicio al cliente e innovación de productos.
“El surgimiento de la inteligencia artificial generativa ha generado oleadas de entusiasmo en la industria del marketing, anunciando promesas de mayor productividad, creatividad y eficiencia. Sin embargo, en medio de este fervor, está surgiendo nerviosismo entre las marcas acerca de las implicaciones legales y éticas inherentes al uso de la inteligencia artificial generativa, y cómo estas podrían socavar la reputación y la confianza de la marca”, dice Stephan Loerke, CEO de la WFA.
La citada investigación de la WFA mostró que las preocupaciones más comunes giran en torno a la confidencialidad de la empresa, la protección y privacidad de los datos, la propiedad intelectual y los derechos de autor, la diversidad, la equidad, la inclusión y la seguridad de la marca, aunque hay consideraciones sociales más amplias, como el impacto de la IA generativa en la industria creativa y el medio ambiente, que siguen siendo puntos de aprehensión.
Estas preocupaciones motivaron al organismo global a generar el documento Manual: Oportunidades y Desafíos en la IA Generativa, con el objetivo de proporcionar una visión general de qué es la inteligencia artificial generativa y cómo impacta en el marketing, cuáles son las consideraciones de su uso para las marcas y qué pasos iniciales podrían tomarse para mitigar riesgos.
En los próximos meses, la WFA, junto a sus asociados y sus asociaciones gremiales adheridas por el mundo, entre ellas ANDA Chile, seguirá trabajando para desarrollar aún más estas recomendaciones y soluciones prácticas que puedan adoptarse para impulsar el uso seguro y adecuado de la inteligencia artificial, dice el documento.
El manual propone un marco para evaluar el riesgo en todo el ciclo de uso de una herramienta de IA generativa, categorizando los riesgos en cinco áreas:
En cada una de estas áreas, el manual de la WFA recomienda diversas medidas para que las marcas y proveedores puedan evitar o mitigar los riesgos lo máximo posible.
Desarrollar un conjunto de principios de IA para guiar el uso de IA generativa en su organización. Estos podrían basarse en principios como la responsabilidad y la transparencia, la explicabilidad, la equidad y la inclusión.
Definir una estructura de gobernanza clara para la IA internamente, que permita una colaboración diversa entre funciones (incluidas TI, marketing, legal y políticas).
Crear una herramienta de evaluación que identifique un conjunto de casos de uso aceptables e inaceptables, para que los equipos legales, de adquisiciones y de marketing puedan evaluar el riesgo de IA generativa según el caso de uso y la herramienta.
Capacitar a los equipos sobre el uso de la IA generativa y las formas en que la tecnología puede ser mal utilizada.
Mantenerse al tanto de los desarrollos regulatorios globales para garantizar que se comprendan completamente las obligaciones legales.
Buscar claridad sobre las medidas que los proveedores de IA tienen en marcha para evitar el mal uso y el abuso de sus herramientas, como las pautas comunitarias, y los pasos que toman para garantizar el cumplimiento de las obligaciones legales.
Detallar cómo están cumpliendo con las leyes, regulaciones y pautas aplicables en lo que respecta al desarrollo e implementación de sus sistemas de IA.
Establecer pautas comunitarias con reglas claras respecto de cómo se puede y no se puede utilizar su herramienta, y tomar medidas proactivas para identificar y prevenir prácticas dañinas.
Proporcionar transparencia a los usuarios comerciales sobre las formas en que se están utilizando sus herramientas y qué mecanismos se están implementando para prevenir el mal uso, de modo que las marcas puedan evaluar su seguridad y adecuación.
Buscar claridad sobre los tipos de datos con los que ha sido entrenado el modelo de IA generativa (datos personales, datos biométricos, datos de niños, obras protegidas por derechos de propiedad intelectual y derechos de autor, etc.), cómo se recopilaron esos datos (por ejemplo, mediante «web scraping») y las medidas que tomó el proveedor para garantizar el cumplimiento de las leyes existentes.
Buscar claridad sobre las medidas que ha tomado el proveedor de IA generativa para garantizar que los datos utilizados para entrenar el modelo sean seguros y adecuados (por ejemplo, en línea con el estándar de idoneidad de GARM).
Buscar claridad sobre las medidas que ha tomado el proveedor de IA generativa para garantizar que los datos de entrenamiento sean representativos y no tengan sesgos no intencionales.
Proporcionar transparencia sobre las fuentes de datos que se están utilizando para entrenar sus modelos, y cómo se están recopilando dichos datos (es decir, utilizando «web crawlers»).
Asegurarse de haber recopilado de manera legal cualquier dato personal o trabajo protegido por derechos de autor o propiedad intelectual para entrenar su modelo.
Introducir mecanismos para filtrar contenido ilegal y perjudicial (incluida la desinformación) de los datos de entrenamiento, de acuerdo con el estándar de idoneidad de GARM.
Asegurar la revisión humana de los datos que se están recopilando para entrenar el modelo con el fin de evitar conjuntos de datos no representativos o sesgados.
Buscar claridad de parte de los proveedores de IA generativa sobre cómo se desarrollan y construyen sus sistemas algorítmicos, qué procesos se utilizan para derivar resultados y si existe supervisión humana.
Entender si el proveedor de IA generativa ha evaluado el impacto más amplio del uso de su herramienta.
Proporcionar una transparencia significativa sobre cómo funcionan sus sistemas algorítmicos y cómo se generan las decisiones y el contenido.
Garantizar que la representación y diversidad significativas estén integradas en los modelos de IA generativa desde su diseño y en el liderazgo y la toma de decisiones de la empresa.
Realizar evaluaciones periódicas de impacto sobre sus sistemas algorítmicos y las medidas tomadas para abordar los riesgos.
Realizar auditorías independientes de sus sistemas algorítmicos y hacer que estas estén públicamente disponibles para los usuarios.
Utilizar exclusivamente versiones empresariales de herramientas de IA generativa que permitan a los usuarios comerciales mantener la confidencialidad de los datos de entrada, especialmente cuando se utilicen datos sensibles o personales.
Buscar claridad sobre si el proveedor de IA generativa está buscando derechos/licencias para utilizar más información introducida en la herramienta.
Informar a los equipos sobre los posibles riesgos de utilizar herramientas de IA generativa gratuitas y públicamente disponibles, y cómo pueden ser utilizadas de manera segura.
Entrenamiento de equipos sobre los tipos de datos que pueden y no pueden introducirse en la herramienta y los riesgos de compartir datos sensibles o comerciales de la empresa.
Considerar imponer límites en el uso de datos personales para incentivar herramientas de inteligencia artificial generativa, en particular datos personales sensibles, a menos que sea necesario para el caso de uso específico.
Establecer acuerdos de procesamiento de datos con proveedores de IA generativa para garantizar que los roles y responsabilidades en la recopilación y uso de datos personales sean claros.
Proporcionar soluciones empresariales a usuarios comerciales que les permitan mantener el control de los datos que ingresan en la herramienta y comprometerse a mantener la confidencialidad de los datos ingresados.
Asegurarse de tener medidas de seguridad implementadas, como SOC 2 Tipo 2, para proteger la seguridad de la información de los usuarios.
Proporcionar transparencia sobre los derechos/licencias que están buscando para seguir utilizando la información proporcionada por los usuarios en la herramienta.
Buscar claridad sobre cómo el proveedor de inteligencia artificial planea utilizar aún más los resultados generados por el uso de su herramienta (es decir, acuerdos de derechos y licencias).
Garantizar la participación humana y la revisión de los resultados para identificar si los activos se asemejan estrechamente a obras existentes protegidas por derechos de autor o propiedad intelectual, y si contienen datos personales para comprender y evaluar las obligaciones legales.
Identificar y eliminar cualquier contenido o elementos que representen o refuercen estereotipos de género, racial, étnico y cultural, así como desinformación.
Evitar el uso de inteligencia artificial generativa para ‘deep fakes’, la creación de humanos sintéticos o la réplica de personas reales en creatividad de marketing, a menos que cuenten con el consentimiento explícito del individuo.
Apoyar y participar en iniciativas de la industria como la Alianza Global para los Medios Responsables, que trabaja para prevenir que los ingresos publicitarios financien contenido perjudicial generado por inteligencia artificial.
Redirigir su plan de medios lejos de las granjas de contenido generado por inteligencia artificial que intencionalmente producen contenido sensacionalista y desinformación, hacia medios de calidad.
Adoptar y apoyar el desarrollo de soluciones de procedencia de contenido para impulsar estándares que certifiquen la fuente del contenido mediático generado por inteligencia artificial y abordar la desinformación generada por IA.
Tomar medidas para eliminar contenido ilegal y perjudicial en los resultados, siguiendo el marco de idoneidad de GARM (Global Alliance for Responsible Media).
Proporcionar transparencia sobre los derechos/licencias que están buscando para utilizar aún más los resultados generados por los usuarios.
Asegurarse de que tienen mecanismos para prevenir la monetización de contenido perjudicial y desinformación generados por IA (incluyendo ‘brandjacking’), siguiendo el estándar de seguridad y el marco de idoneidad de GARM.
Proporcionar transparencia sobre el rendimiento de las herramientas implementadas para desmonetizar y eliminar contenido perjudicial generado por IA.
Adoptar y apoyar el desarrollo de soluciones de procedencia de contenido para establecer estándares que certifiquen la fuente del contenido mediático generado por IA y abordar la desinformación generada por IA.
Adicionalmente, el manual de la WFA sostiene que hay una serie de otras consideraciones éticas que las marcas deben tener en cuenta al adquirir inteligencia artificial generativa.
Estos aspectos se refieren a la transparencia y perjuicio al consumidor, el impacto en la industria creativa y la autenticidad de marca y la sostenibilidad del medioambiente.
Apoyar la investigación de la industria destinada a desarrollar un modelo para calcular la huella de carbono de la IA generativa.
Incorporar y considerar el impacto ambiental de las herramientas de IA generativa al contemplar su uso internamente.
Comprender cómo perciben los consumidores el uso de la IA generativa en marketing, y establecer medidas sólidas de divulgación y transparencia.
Considerar el uso de actores y artistas reales en lugar de versiones sintéticas generadas por IA.
Compensar justamente a los actores y artistas por el uso de su voz y apariencia para fines de IA.
Considerar la limpieza de las cadenas de valor y recursos para limitar el impacto ambiental, desde la contaminación y emisiones hasta la utilización de materias primas y su agotamiento, entre otros aspectos.
Tomar medidas para evitar que la imagen de los creadores sea utilizada sin su permiso o sin una compensación adecuada, especialmente para entrenar sus modelos.