ChatGPT

ChatGPT: riesgos y medidas que las empresas deben tener en cuenta

Síguenos en nuestro canal de noticias de WhatsApp

Desde su lanzamiento a finales de 2022, la herramienta de generación de texto impulsada por IA conocida como ChatGPT ha experimentado tasas de adopción rápidas tanto por parte de organizaciones como de usuarios individuales.

Sin embargo, su última función, conocida como Enlaces Compartidos, conlleva un riesgo potencial con relación a la divulgación “no intencional” de información confidencial.

La función de enlace compartido de ChatGPT

Esta nueva función que OpenAI presentó el 24 de mayo de 2023, le permite a los usuarios compartir sus conversaciones con otros a través de la generación de una URL única para tener una conversación en particular.

Compartir esta URL proporciona a otras personas el acceso a la conversación, donde también pueden contribuir y opinar.

La función es especialmente útil cuando se comparten diálogos extensos o indicaciones útiles, y ofrece una alternativa más eficiente para distribuir capturas de pantalla.

ChatGPT
Así es la función de enlace compartido de ChatGPT. Foto: tomada de Freepik

Divulgación pública a través de enlaces compartidos

Esta característica ha encontrado un amplio uso en las plataformas de redes sociales, donde los usuarios comparten conversaciones interesantes con ChatGPT.

En ese sentido, Trend Micro comparte diferentes casos de divulgación no intencional en donde se deja entre ver información delicada como datos personales, un ejemplo, son aquellas personas que usan esta herramienta para revisar o crear su currículum.

Si bien este podría ser un uso efectivo de ChatGPT, compartir estas interacciones públicamente plantea ciertas preocupaciones. Para las personas, el alcance de la información compartida puede ser una cuestión de discreción personal.

Le puede interesar: ChatGPT y la ciberseguridad empresarial basada en la Inteligencia Artificial

Sin embargo, ¿qué sucede si un empleado comparte información relacionada con el trabajo sin darse cuenta?, en este escenario la responsabilidad de la persona va más allá y pone en duda la responsabilidad de toda la organización.

Hasta el momento, esta función carece de un mecanismo de control de acceso, por lo que cualquier persona que obtenga la URL compartida puede acceder a su contenido, incluso aquellos que se encuentran fuera de la audiencia prevista.

En consecuencia, OpenAI aconseja no compartir información confidencial a través de esta función. Además, sin un análisis de acceso, es imposible rastrear a los usuarios que han accedido a la URL o incluso cuántas veces se ha accedido.

ChatGPT
Recomendaciones para usar adecuadamente el ChatGPT. Foto: tomada de freepik

Medidas recomendadas para los usuarios

Para mitigar estos riesgos, tanto las personas como las organizaciones deben tener en cuenta lo siguiente al utilizar la función de enlaces compartidos de ChatGPT:

  • Conciencia de riesgo: comprenda los riesgos inherentes relacionados con la función. Cualquier persona con la URL del enlace compartido puede acceder a su contenido. Los usuarios también deben ser conscientes de que los enlaces pueden terminar con terceros no deseados por varias razones.
  • Políticas y pautas: establezca políticas y pautas claras sobre qué información se puede ingresar en ChatGPT y qué se debe evitar. Esto debe incluir pautas sobre el uso de la función Shared Link y otras precauciones necesarias.
  • Educación y capacitación: la capacitación regular sobre seguridad de la información puede ayudar a crear conciencia entre los empleados y evitar la fuga de información. La capacitación debe incluir escenarios de riesgo específicos y lecciones de casos reales.
  • Monitoreo y respuesta: considere tecnologías como el filtrado de URL y la detección de transmisión de información confidencial para el monitoreo proactivo y el cumplimiento de las políticas y pautas establecidas. Es necesaria una respuesta rápida en caso de acceso inapropiado o fuga de información.

En conclusión, la función de enlace compartido de ChatGPT, puede tener sus ventajas y desventajas, pero sus riesgos inherentes y las precauciones necesarias para garantizar la seguridad del usuario deben ser prioridad. Al hacerlo, las organizaciones pueden aprovechar los beneficios de la IA mientras mitigan de manera eficiente los riesgos de fuga de información.

Convierta a ValoraAnalitik en su fuente de noticias

Publicaciones Similares