Sentencia T-323-24: el precedente que revoluciona el uso de inteligencia artificial en el sector sanitario colombiano

dest-blog-sentencia-t-323-24

Compartir publicación

Cuando un ChatGPT decidió sobre derechos en salud: La sentencia que lo cambia todo

“La IA no puede sustituir el criterio humano”. Esta contundente afirmación de la Corte Constitucional colombiana en la histórica Sentencia T-323-24 marca un antes y un después para toda entidad del sector salud que implementa o planea implementar soluciones de inteligencia artificial en sus procesos asistenciales o administrativos.

¿Qué ocurrió cuando un juez colombiano utilizó ChatGPT para resolver un caso sobre la cobertura de tratamientos y transporte para un niño con autismo? La respuesta de la Corte Constitucional, emitida el 2 de agosto de 2024, no solo validó los derechos del menor, sino que estableció el primer marco jurisprudencial sobre el uso de Inteligencia Artificial – IA, en decisiones críticas que afectan derechos fundamentales en Colombia. En un momento, en que modelos como Claude 3.7 Sonnet, GPT-4.1 y Gemini 2.5 Pro alcanzan capacidades de razonamiento cada vez más sofisticadas, y cuando el sector sanitario colombiano acelera su adopción de estas tecnologías, esta sentencia se convierte en la brújula que orientará toda implementación responsable de Inteligencia Artificial – IA en salud.

Los seis (06) principios irrenunciables que ahora rigen la IA en el sector sanitario

La Corte Constitucional estableció seis (06) principios fundamentales que todas las entidades del sector salud desde Instituciones Prestadores de Servicios de Salud – IPS y Entidades Promotoras de Salud – EPS, hasta laboratorios y consultorios deberán observar escrupulosamente si utilizan sistemas de Inteligencia Artificial – IA:

1. Primacía absoluta del criterio humano

“La función decisoria es personalísima e indelegable”, sentenció la Corte. Esto significa que ningún diagnóstico, autorización, negación o aprobación puede delegarse completamente a un algoritmo. El médico, administrador o funcionario debe mantener siempre la responsabilidad final de la decisión.

2. Transparencia total y explicabilidad

Si su institución utiliza Inteligencia Artificial – IA, debe informarlo explícitamente. La Corte valoró positivamente que el Juez revelara su uso de ChatGPT, estableciendo un estándar: los pacientes tienen derecho a saber cuándo la IA interviene en decisiones sobre su salud. Esta transparencia debe incluir explicaciones sobre el alcance, limitaciones y forma de uso del sistema.

3. Verificación rigurosa de la información generada por IA

La Corte advirtió sobre los peligros de las “alucinaciones” de los LLMs —generación de información falsa con apariencia de veracidad. Las instituciones de salud tienen la obligación de verificar rigurosamente toda información proporcionada por sistemas de IA, especialmente cuando afecta diagnósticos, tratamientos o derechos de acceso a servicios.

4. Responsabilidad humana indelegable

Un principio definido con claridad: “La responsabilidad por las decisiones tomadas con asistencia de IA recae íntegramente en el humano que las adopta”. No será eximente de responsabilidad médica o administrativa alegar que “el sistema recomendó” cierto curso de acción.

5. Control humano significativo

Las instituciones sanitarias deben garantizar que existe un “control humano significativo” sobre cualquier uso de IA. Esto significa que el profesional debe:

  • Comprender las capacidades y limitaciones del sistema
  • Mantener la autoridad para aceptar, rechazar o modificar las recomendaciones algorítmicas
  • Ejercer un análisis crítico real, no meramente formal

6. Regulación ética proactiva

La Corte citó la Recomendación de la UNESCO sobre Ética de la Inteligencia Artificial – IA y ordenó al Consejo Superior de la Judicatura desarrollar lineamientos específicos. Para el sector salud, esto anticipa la inminente emisión de guías sectoriales por parte del Ministerio de Salud y el INVIMA, exigiendo a las instituciones desarrollar proactivamente protocolos éticos internos.

Cuatro escenarios críticos donde su institución está expuesta

La Sentencia T-323-24, si bien aborda directamente el uso de IA en decisiones judiciales, identifica implícitamente áreas de alto riesgo donde la aplicación de estos sistemas puede comprometer derechos fundamentales. En el sector sanitario, estas áreas requieren especial atención por parte de las instituciones, ya que representan zonas de vulnerabilidad crítica ante posibles reclamaciones o investigaciones. La implementación de estos principios tiene implicaciones inmediatas en al menos cuatro áreas críticas donde la mayoría de las instituciones sanitarias están incorporando IA:

1. Diagnóstico asistido por IA

Las herramientas de análisis de imágenes médicas, sugerencias diagnósticas e interpretación de resultados de laboratorio con IA son cada vez más comunes. Bajo el marco de la sentencia T-323-24:

  • El diagnóstico final debe ser siempre responsabilidad del profesional sanitario
  • Debe informarse al paciente sobre el uso de sistemas de IA en el proceso diagnóstico
  • Las discrepancias entre la recomendación algorítmica y el criterio médico deben documentarse
  • Los modelos multimodales como GPT-4o y Gemini 2.5 Pro, capaces de analizar imágenes médicas, exigen protocolos específicos de verificación

2. Autorización de servicios y medicamentos

Muchas Entidades Promotoras de Salud – EPS utilizan algoritmos para evaluar y aprobar o rechazar solicitudes de servicios y medicamentos. La sentencia establece que:

  • Las decisiones sobre cobertura no pueden delegarse exclusivamente a algoritmos
  • Debe existir revisión humana significativa de cada caso, no meramente formal
  • Los pacientes tienen derecho a conocer el rol de la IA en decisiones administrativas
  • Los rechazos algorítmicos deben ser revisados por personal calificado

En este ámbito, los sistemas RAG (Retrieval-Augmented Generation) como Cohere Command, que procesan normativa específica y generan respuestas basadas en ella, requieren supervisión humana especialmente rigurosa.

3. Sistemas de triage y priorización

Las herramientas de Inteligencia Artificial – IA para clasificar la urgencia de atención o gestionar listas de espera deben implementarse con extremo cuidado:

  • Los criterios de priorización deben ser transparentes y verificables
  • El personal sanitario debe mantener la capacidad de modificar la clasificación algorítmica
  • Se requieren auditorías periódicas para detectar posibles sesgos discriminatorios
  • Debe existir un proceso claro de apelación humana para reclasificaciones

4. Consentimiento informado en la era digital

La sentencia tiene implicaciones directas para el consentimiento informado cuando interviene la Inteligencia Artificial – IA:

  • Los pacientes deben ser informados específicamente sobre el uso de IA en su atención
  • El consentimiento debe explicar el rol auxiliar de la tecnología y las salvaguardas implementadas
  • Debe explicarse cómo se mantiene el control humano significativo en el proceso
  • Las instituciones deben actualizar urgentemente sus formatos de consentimiento informado

Cinco acciones inmediatas para blindar jurídicamente su institución

La Sentencia T-323-24 no solo establece principios generales, sino que implica obligaciones concretas para las instituciones del sector salud que utilizan o planean implementar sistemas de IA. De acuerdo con lo planteado por la Corte Constitucional y siguiendo la lógica jurídica de sus fundamentos, es imprescindible que las organizaciones tomen medidas preventivas inmediatas para asegurar el cumplimiento de los estándares exigidos y mitigar posibles riesgos legales. A la luz de la sentencia T-323-24, recomendamos implementar al menos estas cinco acciones inmediatas:

1. Auditoría integral de sistemas de Inteligencia Artificial – IA

Realice un inventario completo de todos los sistemas de IA utilizados en su institución, evaluando:

  • Qué decisiones clínicas o administrativas asisten
  • Qué nivel de supervisión humana existe actualmente
  • Qué documentación y trazabilidad se mantiene sobre su uso
  • Qué información se brinda a pacientes y usuarios

2. Protocolos de verificación específicos por área

Desarrolle e implemente protocolos que definan:

  • Los procesos precisos de verificación humana para cada tipo de recomendación algorítmica
  • Los niveles de autoridad requeridos para aceptar o rechazar sugerencias de IA
  • La documentación obligatoria sobre el razonamiento humano detrás de cada decisión final
  • Las alertas automáticas para casos donde la discrepancia entre la recomendación algorítmica y la decisión humana sea significativa

3. Programa de capacitación sobre limitaciones de la IA

Implemente capacitación urgente para todo el personal que utiliza sistemas de IA, enfocada en:

  • Reconocer posibles “alucinaciones” o errores algorítmicos según el tipo de modelo utilizado
  • Comprender las diferencias entre sistemas basados en reglas y modelos probabilísticos
  • Desarrollar pensamiento crítico frente a recomendaciones automatizadas
  • Documentar apropiadamente la supervisión humana realizada

Para este fin, es crucial distinguir entre las capacidades y limitaciones específicas de distintos modelos. Por ejemplo, Claude 3.7 Sonnet con Extended Thinking proporciona explicaciones de su razonamiento que facilitan la verificación, mientras GPT-4.1 destaca en análisis de documentación extensa gracias a su ventana de contexto de 1 millón de tokens.

4. Actualización de consentimientos informados

Revise y actualice todos sus formatos de consentimiento para:

  • Informar específicamente sobre el uso de IA en procedimientos
  • Explicar el rol auxiliar de la tecnología y las salvaguardas implementadas
  • Documentar apropiadamente este proceso informativo
  • Garantizar que el lenguaje sea comprensible para el paciente promedio

5. Comité interdisciplinario de ética y supervisión de IA

Constituya un comité permanente que:

  • Evalúe cada sistema de IA antes de su implementación
  • Monitoree periódicamente su desempeño y posibles sesgos
  • Revise casos complejos donde la IA ofrezca recomendaciones controvertidas
  • Actualice protocolos según la evolución tecnológica y jurisprudencial

Liderar con responsabilidad en la revolución de la IA sanitaria

La Sentencia T-323-24 no debe interpretarse como un freno a la innovación, sino como una hoja de ruta para la implementación responsable de IA en el sector sanitario colombiano. Las instituciones que adapten proactivamente sus procesos a este nuevo marco jurisprudencial no solo minimizarán riesgos legales, sino que estarán mejor posicionadas para aprovechar el potencial transformador de estas tecnologías.

Esta sentencia histórica representa un punto de inflexión en la regulación de la inteligencia artificial en Colombia, particularmente en sectores críticos como la salud donde las decisiones pueden afectar derechos fundamentales. Al establecer principios claros sobre transparencia, supervisión humana y responsabilidad, la Corte Constitucional ha sentado las bases de lo que probablemente será un desarrollo normativo más amplio en los próximos años.

Las entidades del sector sanitario que comprendan la profundidad de estos principios y los implementen como parte integral de su cultura organizacional, no solo estarán cumpliendo con el marco jurisprudencial actual, sino que se anticiparán a futuras regulaciones específicas. En un contexto donde la tecnología avanza a ritmo exponencial, este enfoque preventivo y basado en principios ofrece una estrategia sostenible para navegar la compleja intersección entre innovación tecnológica, ética y derecho en el ámbito de la salud.

La IA en salud ya no es el futuro, es el presente. Y ahora sabemos exactamente cómo implementarla legalmente.

Elaborado por:

ALEXANDER OVIEDO FADUL

Referencias

Corte Constitucional de Colombia. (2024, 2 de agosto). Sentencia T-323-24. Magistrado Ponente: Juan Carlos Cortés González. Recuperado de https://www.corteconstitucional.gov.co/relatoria/2024/T-323-24.htm

Ministerio de Tecnologías de la Información y las Comunicaciones & Presidencia de la República. (2021, mayo). Marco Ético para la Inteligencia Artificial en Colombia. Recuperado de https://minciencias.gov.co/sites/default/files/marco-etico-ia-colombia-2021.pdf

International Bar Association (IBA). (2025, 11 de febrero). AI in healthcare: legal and ethical considerations. Recuperado de https://www.ibanet.org/ai-healthcare-legal-ethical

UNESCO. (2024, septiembre). Inteligencia Artificial en la sala de audiencias: Fallo histórico de la Corte Constitucional de Colombia. Recuperado de https://www.unesco.org/es/articles/inteligencia-artificial-en-la-sala-de-audiencias-fallo-historico-de-la-corte-constitucional-de

OpenAI. (2025, enero). Reasoning models – OpenAI API. Recuperado de https://platform.openai.com/docs/guides/reasoning

Anthropic. (2025, febrero). Claude’s extended thinking – Anthropic. Recuperado de https://www.anthropic.com/news/visible-extended-thinking

Subscríbete al boletín de actualización jurídica

CONTENIDO ESPECIALIZADO PARA EL SECTOR SALUD

Más publicaciones

¿Buscas asesoría jurídica para IPS?

Escríbenos y uno de nuestros expertos te contactará

Autodiagnóstico jurídico

A continuación, se le mostrara el diagnóstico inicial de selección múltiple, con el objetivo de apoyarlo en la realización efectiva de sus procesos jurídicos; en GONZALEZ PAEZ ABOGADOS S.A.S. somos su aliado estratégico en la prevención del daño antijurídico y la protección de su patrimonio económico. El cuestionario tiene un tiempo inferior a 10 minutos. Si tienen cualquier duda no duden en ponerse en contacto con nosotros a: comercial@gonzalezpaezabogados.co

REGISTRO DE PQRS

Por favor complete el siguiente formulario

¡Le ofrecemos la asesoría jurídica que necesita!

Obtenga una evaluación y consulta de su caso ahora

Gracias por suscribirse

Hemos recibido su información. A partir de ahora, comenzará a recibir nuestros boletines electrónicos con las novedades más relevantes y actualizadas sobre el ámbito jurídico del sector salud en Colombia.

Gracias por contactarnos

Hemos recibido su información. En breve, uno de nuestros asesores se pondrá en contacto con usted para ofrecerle más detalles.

Hemos recibido su solicitud

Hemos recibido su información. Pronto uno de nuestros asesores le contactará para resolver o revisar su PQRS.
Abrir chat
Hable con un consultor de la firma...