Varios empleados de Samsung filtran datos sensibles a ChatGPT

Empresas

Estas filtraciones habrían llegado a oídos de la compañía, quien se habría decidido a desarrollar su propio chatbot para evitar problemas similares en el futuro.

ChatGPT es una herramienta que se puede utilizar para un montón de cosas y agilizar un sinfín de tareas para empresas y profesionales. Sin embargo, no está carente de riesgos.

Todos los contenidos o archivos que se le comparten no se gestionan de forma privada, sino que son usados para entrenar al sistema y pueden aparecer incluso en las respuestas que da a otros usuarios.

Estos peligros no los han tenido muy en cuenta algunos empleados del gigante tecnológico Samsung.

Recientemente, la compañía coreana había permitido a los ingenieros de su división de semiconductores utilizar la aplicación de OpenAI, pero a estos se les fue la mano.

Según se hace eco The Economist Corea, los empleados de Samsung filtraron hasta en tres ocasiones información secreta de la empresa al utilizar ChatGPT.

Un trabajador le pidió al chatbot que verificara el código fuente de la base de datos confidencial en busca de errores, otro solicitó la optimización del código y un tercero ingresó una reunión grabada en ChatGPT y le pidió que hiciera su minutado.

Samsung ha tomado medidas

Los informes recogen que después de que Samsung fuera consciente de estas filtraciones decidió restringir el uso de la herramienta, limitando la longitud de las indicaciones de ChatGPT a 1 kilobyte o 1024 caracteres de texto.

Además, parece que el fabricante asiático se encuentra investigando a los tres empleados en cuestión y se habría decidido a desarrollar su propio chatbot para evitar problemas similares en el futuro.

Lea también :