lunes 23 de junio de 2025 - Edición Nº2392

Tecno | 3 may 2023

IA y empresas

Samsung prohíbe el uso interno de ChatGPT ¿Por qué?

El modo incógnito no es una opción.


Samsung prohibió el uso de ChatGPT después de que los empleados revelaran inadvertidamente información confidencial al chatbot.

Mediante un comunicado interno la compañia anunció la restricción de los sistemas de IA generativa en dispositivos y redes internas propiedad de la empresa. Los empleados de Samsung compartieron el código fuente con ChatGPT para comprobar si había errores y lo usaron para resumir las notas de las reuniones.

"Si bien este interés se centra en la utilidad y la eficiencia de estas plataformas, también hay una creciente preocupación por los riesgos de seguridad que presenta la IA generativa", dice la nota. La información compartida con ChatGPT se almacena en los servidores de OpenAI y se puede usar para mejorar el modelo a menos que los usuarios opten por no hacerlo.

Recientemente, OpenAI también lanzó un "modo de incógnito" que permite a los usuarios desactivar su historial de chat. OpenAI también anunció que estaba trabajando en una versión de ChatGPT para empresas que no compartirían datos de chat de forma predeterminada.
 

La filtración de Samsung en ChatGPT subrayó los riesgos de compartir información personal y profesional con chatbots de IA. ChatGPT se promociona como una herramienta de productividad para realizar tareas de manera rápida y eficiente.

Pero eso crea un problema de privacidad si los trabajadores comparten información confidencial. Instituciones financieras como JPMorgan, Bank of America y Citigroup también han prohibido o restringido ChatGPT por este motivo.

ChatGPT fue prohibido temporalmente en Italia hasta que se implementó OpenAI una forma más clara de optar por no compartir datos y restricciones de edad para usuarios menores de 13 años o menores de 18 con permiso de los padres.
 

OPINÁ, DEJÁ TU COMENTARIO:
Más Noticias