jueves 22 de enero de 2026 - Edición Nº2605

Tecno | 22 ene 2026

Inteligencia Artificial

Cinco cosas que nunca deberías compartir con ChatGPT

Aunque parezca inofensivo, el uso despreocupado de la inteligencia artificial puede poner en riesgo tu privacidad y seguridad personal.


Por: Ramiro Florio

La inteligencia artificial se volvió parte de la rutina diaria: consultas rápidas, redacción de textos, ayuda laboral o simple curiosidad. Sin embargo, no todo debería compartirse con un chatbot.


Leer también: El misterio de "100 Years": la película que ya está filmada pero se estrenará en el siglo XXII


Las plataformas de IA recopilan y procesan grandes volúmenes de información, y conocer qué datos evitar puede marcar la diferencia entre un uso responsable y un riesgo innecesario.

Estas son cinco cosas que nunca deberías compartir con ChatGPT u otras IA similares.

1. Imágenes con datos biométricos

Subir una foto propia o de otra persona puede parecer inofensivo, pero si el rostro es reconocible, estás entregando datos biométricos sensibles. Estas imágenes pueden utilizarse para generar patrones faciales o entrenar sistemas de reconocimiento, incluso cuando se presentan como juegos o filtros visuales. Lo que parece entretenimiento puede tener usos menos visibles.

2. Datos personales

Información como número de documento, dirección, fecha de nacimiento o rutinas diarias no debería formar parte de ninguna conversación con una IA. Estos datos permiten identificarte o rastrearte y, aunque los sistemas tengan políticas de privacidad, no ofrecen garantías absolutas frente a filtraciones o usos indebidos.

3. Información médica

Resultados de estudios, diagnósticos o síntomas específicos no deben compartirse con chatbots. ChatGPT no es una herramienta médica certificada ni puede reemplazar la consulta profesional. Además, se trata de datos altamente sensibles que podrían quedar registrados o ser utilizados fuera de tu control.

4. Datos bancarios

Números de tarjetas, claves, cuentas o transferencias son información crítica. Compartirlos con una IA, por más confiable que parezca, implica un riesgo serio. Estos sistemas no están diseñados para manejar transacciones financieras y pueden convertirse en un punto vulnerable ante ciberataques.

5. Información corporativa o laboral

Si usás IA para trabajar, evitá subir documentos internos, estrategias, datos de clientes o información confidencial de tu empresa. Aunque resulte práctico para redactar informes o presentaciones, podés estar exponiendo datos sensibles que comprometan la seguridad del negocio.

Usar IA con criterio también es una forma de cuidarse

La inteligencia artificial no es peligrosa por sí misma. El verdadero riesgo está en el uso inconsciente. Cada dato que se comparte puede ser procesado, almacenado o reutilizado, muchas veces con fines legítimos, pero otras fuera del alcance del usuario.

La clave está en la prevención y la conciencia digital. Usar estas herramientas con criterio no significa dejar de aprovecharlas, sino entender sus límites. Porque en tiempos de IA, la verdadera inteligencia también está en saber qué no compartir con ella.

OPINÁ, DEJÁ TU COMENTARIO:
Notas Relacionadas
Más Noticias