Monitor Software
OpenAI elimina la «publicidad» de ChatGPT

Publicación:09-12-2025
TEMA: #Software
OpenAI ha decidido intervenir en una de las polémicas más llamativas de los últimos días: la supuesta aparición de publicidad dentro de ChatGPT.
Varios usuarios comenzaron a reportar recomendaciones de aplicaciones que parecían claramente anuncios, lo que desató un debate inmediato sobre si la compañía había empezado a monetizar el asistente de manera encubierta. La respuesta oficial no se ha hecho esperar: OpenAI asegura que no eran anuncios y que, para evitar malentendidos, ha desactivado por completo este sistema experimental.
Según explicó la propia compañía, estas sugerencias formaban parte de una prueba enfocada a mejorar la integración con las apps compatibles del ecosistema GPT. El problema es que el modo en que se mostraban —con enlaces directos a aplicaciones como CapCut en un formato muy similar al de un anuncio comercial— provocó que muchos usuarios interpretaran que ChatGPT estaba empezando a comportarse como un buscador con resultados patrocinados. La frontera entre recomendación contextual y publicidad no etiquetada quedó peligrosamente borrosa.
Las reacciones no tardaron en multiplicarse y, como suele ocurrir en estos casos, el malestar se propagó rápidamente. Decenas de capturas circularon por redes sociales denunciando que ChatGPT había dejado de ser una experiencia limpia y neutral. Algunos incluso afirmaban que la herramienta estaba priorizando contenido promocionado sobre respuestas útiles. Aunque esto no fuera cierto desde un punto de vista técnico, la percepción del usuario fue suficiente para convertir la confusión en un problema reputacional.
OpenAI, consciente de que el clima de confianza es un componente crítico en el uso de sus modelos, ha aclarado a TechCrunch que ninguna de estas sugerencias procede de acuerdos comerciales con terceros. "No estamos ejecutando anuncios en ChatGPT", insistió la compañía. Estos módulos —ya desactivados— formaban parte de un test limitado y no constituían publicidad pagada bajo ningún concepto. Su retirada no solo pretende calmar la polémica, sino también dar margen para repensar cómo comunicar este tipo de recomendaciones sin generar ambigüedad.
El motivo de fondo, explica OpenAI, es que su estrategia pasa por enriquecer ChatGPT con herramientas, extensiones y apps que amplíen sus capacidades, y eso implica ofrecer recomendaciones contextuales cuando puedan resultar útiles. La intención no era introducir publicidad, sino ayudar al usuario a descubrir funcionalidades que encajan con la tarea que está realizando. Sin embargo, la compañía admite implícitamente que el diseño elegido no era el adecuado, y que la prueba terminó pareciéndose demasiado a un sistema de anuncios tradicionales.
De momento, OpenAI asegura que está revisando cómo presentar estas sugerencias y qué mecanismos de transparencia debe aplicar si decide reintroducirlas. La clave estará en dejar claro qué es contenido generado por el modelo, qué son herramientas externas disponibles y qué está basado en reglas de recomendación. No se descarta que vuelvan, pero con un etiquetado inequívoco y en un contexto que no induzca a confusión, especialmente en un momento en el que los usuarios observan con lupa cualquier cambio en la plataforma.
Y es que este incidente, aunque menor en lo técnico, toca una fibra sensible: la del límite entre asistencia y publicidad. A medida que los chatbots se integran en nuestro día a día, crece el riesgo de que las recomendaciones automatizadas se perciban como intereses comerciales ocultos. Mantener esa línea clara es fundamental para preservar la confianza del usuario, y este pequeño experimento de OpenAI demuestra hasta qué punto el diseño de una simple sugerencia puede abrir un debate mucho más profundo sobre el futuro de la inteligencia artificial y su relación con la monetización.
« Especial »







