Sam Altman revela por qué nunca dice “gracias” a ChatGPT y desata un debate global

Da banderazo Evelyn Salgado al Operativo de la Temporada Vacacional Verano 2025

Día del Abogado en México 2025: ¿cuándo se celebra y cuánto ganan en promedio?

Dark Light
El CEO de OpenAI explica por qué no lo hace y lanza un debate sobre cortesía, ética y eficiencia en la era de la IA. #SamAltman #ChatGPT #OpenAI #IA #CortesíaDigital #Tecnología #Ética #Chatbots #InteligenciaArtificial #TechNews #FuturoDigital

Lo que empezó como una broma en redes sociales terminó abriendo un debate sobre los límites, costos y ética al interactuar con inteligencias artificiales. El CEO de OpenAI, Sam Altman, sorprendió al afirmar que él nunca le diría “gracias” a ChatGPT —y tiene razones técnicas (y millonarias) para ello.

En su cuenta de X, Altman señaló que aunque parezca un gesto de cortesía inocente, escribir palabras como “por favor” o “gracias” a sistemas de IA representa un gasto computacional innecesario. En su propio estilo irónico, comentó que “decenas de millones de dólares bien gastados” se van en procesar este tipo de interacciones, dado que se repiten millones de veces al día.

Más allá de la cortesía: ¿deberíamos limitar lo que escribimos a una IA?

La publicación ha generado distintas opiniones. Algunos expertos creen que ser educados con una IA mejora el tipo de respuestas y promueve un uso más responsable, como sugiere el diseñador de Microsoft Kurtis Beavers. Una encuesta de TechRadar reveló que el 67 % de los usuarios procura ser amable cuando interactúa con estos sistemas.

Sin embargo, Altman plantea un dilema práctico: la IA no tiene emociones, y cada palabra cuesta recursos. En la escala global, esa cortesía puede volverse cara.

Preguntas peligrosas y límites que no deben cruzarse

El debate también rescató otra preocupación: el tipo de preguntas que los usuarios hacen a la IA. Instrucciones ilegales, diagnósticos médicos o peticiones diseñadas para “probar los límites” del sistema no solo son potencialmente peligrosas, sino que pueden activar protocolos de seguridad o alimentar sesgos dentro del propio modelo.

“La inteligencia artificial no tiene juicio clínico ni puede reemplazar a un médico, abogado o terapeuta”, advirtió el psicólogo Juan Carlos Granja.

Las IA están entrenadas para rechazar solicitudes riesgosas o no éticas, pero los usuarios que insisten en este tipo de peticiones dañan la integridad de la herramienta.

¿Entonces debemos dejar de ser educados con la IA?

Para Altman, no es un tema moral, sino práctico. Pero el trasfondo del debate apunta a algo más profundo: ¿cómo nos estamos acostumbrando a convivir con las máquinas? ¿Y qué hábitos estamos formando en el camino?

Al final, quizá la mejor respuesta no sea dejar de ser educados, sino usar el sentido común al interactuar con estas tecnologías.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *