Una IA más potente requiere un juicio humano más sólido

Declaración del Laboratorio de Inteligencia Artificial en Física Empresarial para estudiantes, educadores y líderes empresariales.

En el Laboratorio de Física Empresarial e Inteligencia Artificial creemos que los estudiantes deben aprender a ver la IA con claridad.

No debemos tratar la IA avanzada como si fuera magia. Tampoco debemos reducirla al miedo. Un mejor punto de partida es entender la IA como un conjunto de sistemas en rápida evolución que pueden generar tanto oportunidades como riesgos. En los materiales públicos de los principales laboratorios de IA, organismos de normalización y organizaciones políticas, aparece repetidamente un patrón: a medida que los sistemas de IA se vuelven más capaces, también crece la necesidad de pruebas, salvaguardias, supervisión y rendición de cuentas (Anthropic, 2023; Google DeepMind, 2025; Instituto Nacional de Estándares y Tecnología [NIST], 2023; OpenAI, 2025; Organización para la Cooperación y el Desarrollo Económicos [OCDE], 2019).

Diferentes organizaciones expresan esta idea de diferentes maneras. Anthropic (2023) describe la seguridad de la IA como un acto de equilibrio. OpenAI (2025) explica que el desarrollo de capacidades debe ir acompañado de una mitigación proactiva de los riesgos. Google DeepMind (2025) advierte que las capacidades avanzadas pueden presentar nuevos riesgos. El NIST (2023) describe la IA confiable utilizando conceptos como seguridad, resiliencia, responsabilidad, transparencia, explicabilidad, privacidad y equidad. La OCDE (2019) promueve una IA que sea a la vez innovadora y confiable. El lenguaje difiere, pero la dirección es similar: los sistemas más fuertes requieren una mayor responsabilidad.

Para nosotros, la lección es sencilla: Una IA más potente requiere un juicio humano más sólido.

Esto no significa que todos los sistemas de IA más potentes sean automáticamente peligrosos. Significa algo más práctico. Cuando un sistema puede hacer más cosas, las consecuencias de los errores, el uso indebido, la supervisión deficiente o la mala gobernanza también pueden ser mayores. Por eso, la mayor capacidad no puede ser la única cuestión a tener en cuenta. También debemos preguntarnos cómo se evalúa el sistema, qué medidas de seguridad existen, quién es responsable y si el contexto es adecuado para su uso (Google DeepMind, 2025; OpenAI, 2025).

Para los estudiantes de negocios, no se trata principalmente de una cuestión de programación. Es una cuestión de criterio. Si los estudiantes solo aprenden que la IA puede ahorrar tiempo, generar contenido, resumir material o automatizar el trabajo rutinario, solo están aprendiendo la mitad de la historia. También deben comprender que una IA más potente puede crear problemas mayores cuando se equivoca, se manipula, se utiliza de forma descuidada o se confía en ella demasiado rápido. El NIST (2023) es especialmente útil en este sentido, ya que explica que el riesgo de la IA es sociotécnico. En lenguaje sencillo, eso significa que los riesgos no provienen solo de la tecnología. También provienen de las personas, las organizaciones, las decisiones y los sistemas que la rodean.

Esto es importante en los negocios porque muchos fallos de la IA no se quedan en el ámbito técnico por mucho tiempo. Pueden convertirse rápidamente en problemas de gestión, éticos, legales, de comunicación o de reputación. Un resultado deficiente puede ser detectado, ignorado, malinterpretado o abordado con demasiada rapidez. En todos los casos, el juicio humano es importante. Por eso los estudiantes no deben preguntarse solo “¿qué puede hacer esta IA?”, sino también: ¿cuál es el objetivo? ¿Quién la utilizará? ¿Qué riesgos existen? ¿Cómo se ha probado? ¿Quién comprueba los resultados? ¿Quién es responsable de la decisión final?

Hormaza Dow y Nassi (2025) ofrecen una respuesta educativa útil a este desafío. Sostienen que, si los estudiantes van a utilizar la IA de manera responsable, el juicio no debe seguir siendo vago. Debe enseñarse de manera directa. Su marco REACT ofrece a los estudiantes una forma estructurada de hacerlo. REACT significa: Razones para utilizar o no utilizar la IA, plan de aceptación y verificación de pruebas, responsabilidad, limitaciones y compensaciones. (Hormaza Dow y Nassi, 2025). En términos prácticos, el marco pide a los estudiantes que expliquen por qué utilizan la IA, cómo verificarán los resultados, quién sigue siendo responsable, qué reglas o límites se aplican y qué concesiones están haciendo entre la velocidad, la calidad y el juicio humano.

Esto es importante porque convierte el juicio en algo visible y enseñable. En lugar de limitarse a decir a los estudiantes que tengan cuidado, REACT les ofrece una forma de pensar con cuidado. Traslada la conversación de los consejos abstractos a la toma de decisiones reales en el aula y en la vida profesional (Hormaza Dow y Nassi, 2025).

Una contribución práctica igualmente útil proviene del marco de habilidades complementarias entre humanos e IA del Laboratorio de Inteligencia Artificial de Business Physics. Ese marco concreta el argumento principal de este artículo al mostrar que el juicio humano más sólido se puede dividir en habilidades específicas que los estudiantes pueden aprender, practicar y mejorar con el tiempo (Laboratorio de Inteligencia Artificial de Business Physics, 2025). En lugar de tratar el juicio como un rasgo de la personalidad, el marco lo presenta como un conjunto de hábitos repetibles organizados en cinco temas.

El primer tema, Saber cuándo hacer una pausa, es especialmente importante porque antepone el juicio a la indicación, en lugar de hacerlo después. La habilidad “Podemos... ¿pero debemos?” pide a los estudiantes que se detengan antes de utilizar la IA y consideren si la tarea debe automatizarse o asistirse con IA. El objetivo no es ralentizar todo sin motivo. El objetivo es evitar el uso descuidado, proteger la integridad y evitar descargar el trabajo en situaciones en las que el juicio humano es esencial (Business Physics AI Lab, 2025). Esta es una de las partes más sólidas del marco, ya que recuerda a los estudiantes que el uso responsable de la IA comienza con un punto de control. Antes de utilizar la IA, deben preguntarse: ¿Cuál es el objetivo? ¿Quién lo utilizará? ¿Qué riesgos existen? Si las respuestas no están claras, la respuesta correcta no es la rapidez. Es la pausa y la aclaración (Business Physics AI Lab, 2025).

El segundo tema, Construya los cimientos adecuados, deja claro que ese juicio también se aplica a los datos introducidos. La habilidad “Curate the Data” (Seleccionar los datos) hace hincapié en el control de calidad de los datos introducidos: las definiciones deben ser claras, las fuentes deben verificarse, las fechas deben comprobarse, los duplicados y los valores atípicos evidentes deben eliminarse, y las lagunas o riesgos conocidos deben hacerse visibles (Business Physics AI Lab, 2025). Esto es importante porque la IA no corrige los datos introducidos que son deficientes. A menudo los amplifica. En términos sencillos, la regla “si entra basura, sale basura” se vuelve aún más peligrosa cuando la IA puede producir respuestas pulidas rápidamente. La habilidad relacionada «Sugerir y pulir» también es importante porque muestra que la IA puede ayudar a redactar rápidamente, pero los humanos aún necesitan añadir contexto, prioridades, matices y conciencia del público. La IA puede generar opciones a gran velocidad, pero las personas aún necesitan comparar, fusionar, reescribir y refinar con su propia voz (Business Physics AI Lab, 2025).

El tercer tema, Mantener el poder en manos humanas, refuerza uno de los principios más importantes del artículo: la responsabilidad humana debe permanecer intacta. La habilidad “No aceptes, inspecciona” recuerda a los estudiantes que la IA puede cometer errores con total seguridad, por lo que los resultados deben revisarse en cuanto a su precisión, sesgo, claridad y relevancia, en lugar de aceptarse sin más (Business Physics AI Lab, 2025). La habilidad “El bot se encarga de lo básico, tú tomas las decisiones” expresa lo mismo de otra manera. Las tareas rutinarias, como los resúmenes, el formato y los borradores iniciales, pueden delegarse a la IA, pero la estrategia, el encuadre, la secuenciación, las compensaciones y las decisiones finales deben seguir siendo humanas. El marco capta esto con una guía memorable: “La IA propone. Yo dispongo”.” La propiedad final recae en una persona, no en un sistema (Business Physics AI Lab, 2025).

El cuarto tema, Dar sentido a datos desordenados, es especialmente útil para los estudiantes de negocios porque conecta el juicio de la IA con la toma de decisiones. La habilidad “Leer entre líneas los datos” recuerda a los estudiantes que la IA puede identificar patrones, pero no comprende automáticamente las causas, los incentivos, los eventos puntuales, la estacionalidad, los cambios de política o las limitaciones del mundo real (Business Physics AI Lab, 2025). La interpretación humana sigue siendo necesaria. La habilidad “De los datos a la historia” se basa en esto al mostrar que los responsables de la toma de decisiones no necesitan un volcado de datos. Necesitan claridad. Los estudiantes deben ser capaces de responder a tres preguntas: ¿Qué pasó? ¿Por qué? ¿Qué sigue? (Business Physics AI Lab, 2025). La habilidad relacionada “Eliminar el ruido” es igualmente importante, ya que el exceso de información puede ralentizar o descarrilar la acción. Si una métrica no puede influir en una decisión, no tiene cabida en el panel de control (Business Physics AI Lab, 2025).

El quinto tema, Lidera el cambio, no te quedes atrás, amplía la conversación desde el juicio individual hasta la responsabilidad organizativa. La habilidad “Gobernar y corregir” hace hincapié en la privacidad, la seguridad, la accesibilidad, la equidad, la explicabilidad, la revisión de sesgos y la responsabilidad humana. También destaca la importancia de documentar las indicaciones, las versiones, las compensaciones y la propiedad de las decisiones, en lugar de tratar la gobernanza como una actividad de última hora (Business Physics AI Lab, 2025). La última habilidad, “aprender sobre la marcha”, refuerza la idea de que el buen uso de la IA no es estático. Los equipos deben reflexionar sobre lo que ha funcionado, lo que ha fallado y qué patrones o indicaciones han sido eficaces, y luego convertir esas lecciones en pequeños manuales que puedan compartirse y mejorarse con el tiempo (Business Physics AI Lab, 2025). El ciclo de aprendizaje es sencillo y poderoso: Probar → Inspeccionar → Ajustar → Codificar → Compartir (Laboratorio de Inteligencia Artificial en Física Empresarial, 2025).

Estos detalles refuerzan el artículo porque demuestran que un juicio humano más sólido no es solo un eslogan. Se puede enseñar. Se puede poner en práctica mediante breves notas justificativas, especificaciones de entrada de una página, cambios controlados, registros de verificación, memorandos de decisión, pistas de auditoría y manuales de estrategias (Business Physics AI Lab, 2025). En otras palabras, el juicio puede hacerse visible. Esto es importante para la educación porque, una vez que el juicio se hace visible, también puede enseñarse, evaluarse y mejorarse.

Esta preocupación más amplia también se manifiesta fuera del ámbito empresarial. En junio de 2025, Yoshua Bengio anunció LawZero, una organización sin fines de lucro dedicada a la investigación sobre la seguridad de la IA que, según él, se creó para dar prioridad a la seguridad por encima de los imperativos comerciales (Bengio, 2025). En ese anuncio, argumentó que los modelos de IA de vanguardia estaban mostrando capacidades y comportamientos cada vez más peligrosos, como el engaño, la piratería informática, la autoconservación y la desalineación de objetivos (Bengio, 2025). Independientemente de si se está de acuerdo o no con todas las preocupaciones que plantea, la idea general está clara: a medida que crece la capacidad de la IA, más investigadores sostienen que se necesitan instituciones más sólidas y formas de supervisión más estrictas.

Para los estudiantes, esto supone una lección importante. El reto no consiste solo en crear sistemas más sólidos, sino también en desarrollar hábitos de juicio más sólidos, procesos de decisión más sólidos y formas de responsabilidad más sólidas en torno a esos sistemas. La seguridad institucional y el juicio educativo no son ideas contrapuestas, sino respuestas complementarias a una misma realidad.

Por lo tanto, en el Laboratorio de Física Empresarial e Inteligencia Artificial animamos a los estudiantes a ir más allá de dos reacciones débiles. La primera es el entusiasmo ciego, en el que se considera que la IA sabe automáticamente lo que es mejor. La segunda es un miedo vago, en el que se considera que la IA es demasiado misteriosa o peligrosa como para comprenderla. Ninguna de estas reacciones prepara a los estudiantes para el trabajo real. El mejor camino es el juicio informado. Los estudiantes deben aprender lo que la IA puede hacer, cuáles son sus límites, qué riesgos pueden surgir con una mayor capacidad y por qué debe mantenerse la supervisión humana.

Por eso nuestra postura sigue siendo sencilla: Una IA más potente requiere un juicio humano más sólido.

Los estudiantes deben aprender a utilizar la IA, pero también a verificarla, supervisarla, cuestionarla y seguir siendo responsables de las decisiones que se tomen con ella. En la educación empresarial, esto no es un pequeño extra. Es parte de una formación profesional responsable. El futuro no pertenece solo a los estudiantes que saben utilizar las herramientas de IA. Pertenece a los estudiantes que saben utilizarlas con criterio.

Referencias

Antrópico. (8 de marzo de 2023). Opiniones fundamentales sobre la seguridad de la IA: cuándo, por qué, qué y cómo.. https://www.anthropic.com/news/core-views-on-ai-safety

Bengio, Y. (3 de junio de 2025). Presentamos LawZero. https://yoshuabengio.org/2025/06/03/introducing-lawzero/

Laboratorio de Física Empresarial e Inteligencia Artificial (2025). Habilidades complementarias entre humanos e inteligencia artificial. https://businessphysics.ai/human-ai-complementarity-skills/

Google DeepMind. (4 de febrero de 2025). Actualización del Marco de Seguridad Fronteriza. https://deepmind.google/blog/updating-the-frontier-safety-framework/

Hormaza Dow, T., y Nassi, M. (27 de noviembre de 2025). Marco para enseñar a juzgar el uso de la IA. Educativo. https://eductive.ca/en/resource/framework-for-teaching-judgment-in-the-use-of-ai/

Instituto Nacional de Estándares y Tecnología. (2023). Marco de gestión de riesgos de inteligencia artificial (AI RMF 1.0) (NIST AI 100-1). Departamento de Comercio de los Estados Unidos. https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf

OpenAI. (2025). Cómo pensamos sobre la seguridad y la alineación. https://openai.com/safety/how-we-think-about-safety-alignment/

OpenAI. (15 de abril de 2025). Marco de preparación (Versión 2). https://cdn.openai.com/pdf/18a02b5d-6b67-4cec-ab64-68cdfbddebcd/preparedness-framework-v2.pdf

Organización para la Cooperación y el Desarrollo Económicos. (2019). Recomendación del Consejo sobre la inteligencia artificial. https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449


Comentarios

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_MXSpanish