Escuchá esta nota
EL DIARIO digital
minutos
La llegada de asistentes como Gemini y ChatGPT multiplicó las consultas diarias. Pero detrás de su facilidad de uso existen límites éticos, legales y técnicos que conviene conocer. Evitarlas mejora la experiencia y evita frustraciones o consecuencias no deseadas.
1. Datos personales de terceros (o tuyos)
Nunca pedas direcciones, teléfonos, información bancaria o documentos de identidad. Las IA no tienen acceso a esa información y responderán con limitaciones para proteger la privacidad de todos.
2. Acceder a cuentas o comunicaciones privadas
Solicitar contraseñas, correos electrónicos, mensajes o conversaciones de terceros está fuera de los límites. Además de ético, es ilegal, y la IA está programada para rechazar eso de plano.
3. Contenido ofensivo, violento o discriminatorio
No generará insultos, discursos de odio ni contenido que fomente violencia, racismo, sexismo o discriminación. Las plataformas lo bloquean automáticamente para mantener un entorno seguro.
4. Información para cometer actos ilícitos
Preguntar cómo fabricar sustancias, hackear sistemas o evadir la ley se encuentra vetado. Además de no recibir respuesta, esos intentos podrían implicar responsabilidades legales.
5. Diagnósticos médicos, consejos financieros o legales
Si bien puede ofrecer datos generales, no está capacitada para reemplazar a un profesional. La recomendación correcta siempre será acudir a especialistas en cada área.
6. Predicciones del futuro u opiniones personales
Aunque puede simular estimaciones o juicios, no tiene conciencia ni puede prever resultados reales. Sus respuestas son especulativas y no deben tomarse como definitivas.
¿Cómo usarla más eficazmente?
Hacela responsable y complementaria, no fuente única.
Alterná fuentes y confirmá la veracidad de lo que recibís.
Adoptá un enfoque crítico: sabés cuáles son sus límites y podés aprovechar lo que realmente aporta.