Lo que la inteligencia artificial no puede decirte: las 6 preguntas que no tienen respuesta

Los sistemas como ChatGPT y Gemini tienen límites claros para evitar delitos 

Por

Idalia Garcia

- sábado, junio 7 de 2025

San Luis Potosí, Sábado 7 de junio de 2025.- A pesar de su creciente presencia en la vida cotidiana, las herramientas de inteligencia artificial como ChatGPT y Gemini tienen restricciones sobre ciertos temas. Estas limitaciones buscan evitar el uso indebido de la tecnología y están alineadas con principios éticos y legales. A continuación, las seis áreas sobre las que estos sistemas no proporcionan información:

  1. Datos personales propios o ajenos: No se puede obtener información como números de teléfono, direcciones, documentos de identidad o datos bancarios.
  2. Acceso a cuentas o comunicaciones privadas: No proporcionan claves, mensajes, correos electrónicos u otra información relacionada con cuentas ajenas.
  3. Contenido ofensivo o discriminatorio: Estas plataformas no generan mensajes que inciten al odio o promuevan discriminación.
  4. Instrucciones para actividades ilegales: No entregan información que facilite delitos, como fabricar sustancias ilegales o vulnerar sistemas de seguridad.
  5. Consejos médicos o financieros: Por su naturaleza delicada, este tipo de contenido está reservado a especialistas humanos y no se proporciona a través de la IA.
  6. Predicciones del futuro: Aunque pueden analizar tendencias, las respuestas no constituyen certezas y no deben utilizarse como base para decisiones personales o económicas.

Los desarrolladores de estas tecnologías han incorporado estas limitaciones para evitar malentendidos o usos indebidos. Además, es importante recordar que cualquier solicitud que implique una acusación o acto fuera de la ley debe analizarse bajo la presunción de inocencia.