Evitar exponer información confidencial es primordial al utilizar servicios como ChatGPT, según un informe reciente que destaca los riesgos más comunes.
Archivos de trabajo y documentos internos
Un estudio revela que más del 80% de empleados en corporaciones líderes recurren a IA para labores corporativas, pero el 11% maneja datos confidenciales, como estrategias reservadas.
“Se recomienda eliminar información sensible de archivos antes de utilizar IA, ya que podría ser almacenada indefinidamente y ser utilizada de manera inapropiada”.
Experto en seguridad de la información
- 80% de empleados de Fortune 500 emplea IA para tareas corporativas.
- 11% de los detalles introducidos son confidenciales.
- Eliminar datos sensibles de documentos antes de usar IA.
Contraseñas y credenciales
El informe recalca el peligro de ingresar contraseñas en plataformas de IA, ya que un 24% las guarda en dispositivos y un 18% en navegadores, exponiéndolas a posibles filtraciones y uso indebido.
“El almacenamiento de contraseñas en dispositivos deja a los usuarios vulnerables a riesgos de seguridad”.
Experto en ciberseguridad
- 24% de usuarios almacena contraseñas en sus dispositivos.
- No ingresar contraseñas en consultas a la IA para evitar riesgos.
Datos personales e identidad digital
Entregar información personal como nombres, direcciones o imágenes fomenta la generación de deepfakes y posibles usos fraudulentos que podrían afectar la reputación y seguridad corporativa.
“La entrega de datos personales podría desencadenar problemas legales y dañar la reputación de individuos y empresas”.
Experto en seguridad de datos
- Acumular datos personales facilita delitos como el fraude o la suplantación de identidad.
- Evitar compartir información sensible para prevenir consecuencias legales y afectación de la reputación.
Información financiera
Si bien las IA pueden ayudar en conceptos financieros, es arriesgado basar decisiones empresariales en ellas. Introducir datos sensibles puede provocar errores y exposición a brechas de seguridad.
“Las herramientas IA no son precisas en temas financieros, lo que aumenta el riesgo de decisiones erróneas”.
Experto en seguridad financiera
- Evitar usar IA para decisiones financieras críticas.
- No ingresar información financiera sensible en plataformas de IA.
Código fuente y propiedad intelectual
Compartir fragmentos de código empresarial con IA expone la propiedad intelectual a riesgos de divulgación. La reutilización de códigos podría resultar en la exposición de información clave a terceros no autorizados.
“El uso de IA con código empresarial implica un riesgo directo para la propiedad intelectual y la seguridad de datos”.
Experto en tecnología empresarial
- El compartir códigos empresariales con IA podría exponer información confidencial.
- Tomar medidas para proteger la propiedad intelectual al utilizar AI en desarrollo de software.
Inserta este artículo con este código HTML:
<a href="https://www.redimin.cl/chatgpt-riesgos-de-ciberseguridad-al-usar-ia-en-empresas/">ChatGPT: Riesgos de ciberseguridad al usar IA en empresas</a>