ChatGPT: Riesgos de ciberseguridad al usar IA en empresas

3 Minutos de Lectura

Evitar exponer información confidencial es primordial al utilizar servicios como ChatGPT, según un informe reciente que destaca los riesgos más comunes.

Archivos de trabajo y documentos internos

Un estudio revela que más del 80% de empleados en corporaciones líderes recurren a IA para labores corporativas, pero el 11% maneja datos confidenciales, como estrategias reservadas.

“Se recomienda eliminar información sensible de archivos antes de utilizar IA, ya que podría ser almacenada indefinidamente y ser utilizada de manera inapropiada”.

Experto en seguridad de la información
  • 80% de empleados de Fortune 500 emplea IA para tareas corporativas.
  • 11% de los detalles introducidos son confidenciales.
  • Eliminar datos sensibles de documentos antes de usar IA.

Contraseñas y credenciales

El informe recalca el peligro de ingresar contraseñas en plataformas de IA, ya que un 24% las guarda en dispositivos y un 18% en navegadores, exponiéndolas a posibles filtraciones y uso indebido.

“El almacenamiento de contraseñas en dispositivos deja a los usuarios vulnerables a riesgos de seguridad”.

Experto en ciberseguridad
  • 24% de usuarios almacena contraseñas en sus dispositivos.
  • No ingresar contraseñas en consultas a la IA para evitar riesgos.

Datos personales e identidad digital

Entregar información personal como nombres, direcciones o imágenes fomenta la generación de deepfakes y posibles usos fraudulentos que podrían afectar la reputación y seguridad corporativa.

“La entrega de datos personales podría desencadenar problemas legales y dañar la reputación de individuos y empresas”.

Experto en seguridad de datos
  • Acumular datos personales facilita delitos como el fraude o la suplantación de identidad.
  • Evitar compartir información sensible para prevenir consecuencias legales y afectación de la reputación.

Información financiera

Si bien las IA pueden ayudar en conceptos financieros, es arriesgado basar decisiones empresariales en ellas. Introducir datos sensibles puede provocar errores y exposición a brechas de seguridad.

“Las herramientas IA no son precisas en temas financieros, lo que aumenta el riesgo de decisiones erróneas”.

Experto en seguridad financiera
  • Evitar usar IA para decisiones financieras críticas.
  • No ingresar información financiera sensible en plataformas de IA.

Código fuente y propiedad intelectual

Compartir fragmentos de código empresarial con IA expone la propiedad intelectual a riesgos de divulgación. La reutilización de códigos podría resultar en la exposición de información clave a terceros no autorizados.

“El uso de IA con código empresarial implica un riesgo directo para la propiedad intelectual y la seguridad de datos”.

Experto en tecnología empresarial
  • El compartir códigos empresariales con IA podría exponer información confidencial.
  • Tomar medidas para proteger la propiedad intelectual al utilizar AI en desarrollo de software.
Compartir este Artículo