El 10 de septiembre, El País abrió su sección de debate con una pregunta que ha cobrado actualidad tras la confesión del primer ministro sueco Ulf Kristersson de recurrir “con bastante frecuencia” a ChatGPT para obtener una segunda opinión en asuntos de gobierno. ¿Podemos fiarnos de un profesional que utiliza IA generativa en su labor? El diario recogió dos visiones contrapuestas que, sin embargo, comparten más puntos en común de lo que a primera vista parece.

En el papel del no, Ulises Cortés, catedrático de Inteligencia Artificial en la Universitat Politècnica de Catalunya, advierte que no debemos fiarnos de un profesional que use herramientas comerciales de IA generativa sin control. Subraya la falta de certificación rigurosa, la opacidad de los modelos y los riesgos éticos y legales de un uso acrítico. La responsabilidad, insiste, no puede delegarse nunca en la máquina.
En el papel del sí, Cecilia Celeste Danesi, codirectora del Máster en Gobernanza Ética de la IA en la Universidad Pontificia de Salamanca, defiende que no se debe demonizar la herramienta. La IA generativa ya está presente en sectores sensibles como la medicina o la justicia. El reto es usarla bajo supervisión humana, con protocolos claros, transparencia y gobernanza ética.
Aunque las posturas parecen opuestas, el trasfondo es convergente: ambos coinciden en que la clave está en el cómo se usa, en la comprensión de sus limitaciones y en la necesidad de marcos de responsabilidad claros.
Valoración desde MedicineAI
Este debate confirma lo que venimos señalando desde MedicineAI: la pregunta esencial no es si un profesional utiliza IA generativa, sino cómo y para qué lo hace. Hoy la respuesta flota en la escala de grises entre considerar inadecuada su utilización, en cualquier circunstancia, y un uso irresponsable que sustituya completamente al profesional.
