Ayudando a los Equipos de Relaciones Públicas a Navegar Seguros en la Ola de la IA Generativa

ChatGPT ha despertado un gran interés entre los equipos de relaciones públicas, pero según un estudio de The Conference Board, hasta agosto de 2023, menos del 50% de las organizaciones han comenzado a trabajar en orientaciones a nivel de empresa, y solo el 26% ha publicado una política sobre el uso de la inteligencia artificial generativa.

Esto lleva a la pregunta: ¿Tiene claro tu equipo sobre lo que se puede y no se puede hacer con la inteligencia artificial en el trabajo?

Casi a diario, escucho una respuesta contundente: «no».

Los avances en inteligencia artificial avanzan tan rápido que muchos se sienten mareados y llenos de dudas. Otros están equilibrando las promesas de los proveedores de software con sus propias obligaciones legales y se sienten confundidos.

Así es como Highwire PR abordó el problema. Fuimos una de las primeras agencias en tener un marco sólido, una política y herramientas para informar sobre la adopción de la inteligencia artificial, y la mayoría de esto lo hicimos público, disponible para que otros lo utilicen como base.

Enfoque en principios en lugar de políticas

El ritmo frenético de innovación de la inteligencia artificial nos llevó a enfocarnos en marcos en lugar de reglas que podrían volverse obsoletas rápidamente. Capacitamos a nuestro personal para que comprendiera las implicaciones de la inteligencia artificial, desde aspectos contractuales y legales hasta un profundo entendimiento de los derechos de autor, la propiedad y las preocupaciones éticas, así como una nueva apreciación por el control de calidad, necesario al trabajar con inteligencia artificial.

Combinamos estos marcos con herramientas y plantillas para permitir que nuestros equipos evalúen fácilmente una situación antes de aplicar la inteligencia artificial. Nuestros Mapas de Riesgo de Inteligencia Artificial y otro contenido público han sido vistos por más de 55,000 profesionales hasta ahora este año.

Lo más importante es que fomentamos una discusión abierta sobre cómo la inteligencia artificial está cambiando nuestra profesión. Eliminamos sentimientos de secreto y vergüenza, y creamos un espacio seguro (tanto en persona como en un canal dedicado en Slack) donde los equipos pueden sentirse libres para experimentar, aprender y hacer preguntas antes de entregar el trabajo a un robot.

Incremento de habilidades y familiaridad

Preparar a nuestro personal para la inteligencia artificial fue una prioridad. Creamos una formación en «Bootcamp de Inteligencia Artificial» para cubrir lo básico, desmitificar la tecnología y hacer que todos usen las mismas definiciones y lenguaje. A partir de ahí, educamos sobre riesgos y obstáculos específicos. Establecer un punto de partida común aceleró todo más adelante.

Hicimos que esta formación fuera obligatoria, y cada nuevo empleado la realiza dentro de una o dos semanas después de unirse.

Establecimiento de límites claros

Con un marco y una comprensión compartida en su lugar, compartimos ‘lo que puedes hacer’ y ‘lo que no puedes hacer’ y prohibimos varios usos problemáticos de la inteligencia artificial, como suplantar a un humano sin consentimiento y crear contenido sin supervisión humana.

Revisamos a los proveedores, creamos aplicaciones aprobadas y las integramos con la política de uso aceptable de nuestro equipo de tecnología de la información.

A lo largo de todo esto, la transparencia es clave: revelamos nuestro enfoque de antemano a todos los clientes y nunca sustituimos el esfuerzo humano por el trabajo de las máquinas. También estamos actualizando contratos para aclarar nuestro uso de la inteligencia artificial.

Orientación hacia la calidad y la claridad

Mi experiencia como periodista me hace desconfiar de la desinformación. Aunque la inteligencia artificial promete aumentos de productividad, no podemos olvidar el control de calidad. Les recuerdo a los clientes que no cambien la velocidad por la confianza. El contenido generado por inteligencia artificial todavía requiere verificación cuidadosa y verificación de hechos.

Cada vez que se me pide revisar un plan de adopción o política de inteligencia artificial para un cliente, comienzo preguntando qué tan claro será para quienes lo implementarán. La tentación de la inteligencia artificial es tan grande y las aplicaciones están evolucionando tan rápidamente que no hay lugar para la duda.

Y cada organización requiere una solución única. Los Mapas de Riesgo de Highwire fueron creados para equipos de relaciones públicas, y específicamente para empleados de agencias. A menudo asesoro a los clientes sobre sus propias barreras de seguridad de inteligencia artificial, utilizando su lenguaje específico, prioridades y casos de uso.

Con el marco adecuado, una implementación cuidadosa y una adopción reflexiva, la inteligencia artificial puede hacernos a todos más inteligentes y centrados en un trabajo significativo. Pero lanzarse imprudentemente puede dañar la credibilidad y crear riesgos innecesarios. Hay una manera responsable de surfear la ola.

Fuente: James Holland – Vicepresidente Ejecutivo de Digital en Highwire PR.


Deja una respuesta

Your email address will not be published.