Todos los artículos
Tecnología · 14 min lectura

IA conversacional en clínicas · qué funciona y qué es marketing fluff (análisis 2026)

·Jonatan Contell

"IA conversacional" es una de las frases más sobre-usadas del sector salud 2026. Lo que hay debajo varía enormemente. Esta guía separa lo que es real de lo que es marketing fluff · desde la perspectiva de quien lo construye.

1 · Qué es realmente IA conversacional (definición técnica)

IA conversacional · stricto sensu · es:

  • Sistema que usa un Large Language Model (LLM) como GPT-4 · Claude · Gemini · Llama
  • Capaz de entender lenguaje natural sin keywords pre-programadas
  • Genera respuestas contextuales · no plantillas fijas
  • Mantiene memoria de turno · entiende contexto de mensajes anteriores
  • Razona sobre la query antes de responder (cadena reasoning)

Si tu "IA conversacional" solo hace match de palabras clave y devuelve respuestas fijas · NO es IA conversacional · es FAQ bot rule-based.

2 · FAQ bot rule-based · qué es y cuándo basta

Los FAQ bots tradicionales funcionan así:

  • Detecta keywords ("precio" · "horario" · "ubicación")
  • Devuelve respuesta pre-escrita asociada a esa keyword
  • Si no detecta · cae en respuesta default tipo "no entiendo"
  • Sin memoria de conversación · cada mensaje es aislado

Cuándo basta un FAQ bot:

  • FAQs estables · 10-20 preguntas frecuentes idénticas
  • Sin necesidad de adaptación a tono del paciente
  • Bajo volumen y baja variedad de consultas

FAQ bot bien hecho cubre 60-70% de las consultas de una clínica pequeña. Para el otro 30-40% se queda corto.

3 · LLM-powered · qué cambia

Cuando metes un LLM como motor:

  • Entiende preguntas mal redactadas · errores tipográficos · jerga
  • Combina información de la knowledge base con razonamiento · responde queries compuestas
  • Adapta tono · puede ser más formal o más cercano según el paciente
  • Captura intención · "quiero saber si me cobráis primera consulta o solo si me trato" se entiende como query compleja
  • Riesgo: puede alucinar precios o info clínica si no tiene guardrails

4 · GPT-4 vs Claude · diferencias prácticas

Comparativa para uso clínico (mayo 2026):

  • GPT-4o / GPT-4.1 · más rápido · más económico por token · mejor en instrucciones cortas · API estable · más ecosistema
  • Claude Opus 4.x · mejor en contexto largo (200k+ tokens) · más cauteloso · sigue mejor instrucciones de guardrails clínicos · mejor en razonamiento estructurado
  • GPT-4.1 mini / Claude Haiku · versiones rápidas/baratas · suficientes para FAQs simples
  • Gemini Pro 2.5 · contexto largo barato · multimodal · menos verificado en producción clínica europea

Para una clínica española típica · GPT-4o-mini o Claude Haiku 3.5 bastan para 90% queries · usar versión grande solo para escalado complejo. Coste mensual LLM de una clínica activa pequeña: 5-30€.

5 · El truco que separa lo real del fluff · RAG

La diferencia entre un bot genérico y uno útil clínicamente es el RAG (Retrieval-Augmented Generation). Básicamente:

  • Cargas tu knowledge base (servicios · precios · horarios · FAQ específicas) en embeddings vectoriales
  • Cuando el paciente pregunta · el sistema busca los chunks más relevantes
  • Mete esos chunks en el prompt · el LLM responde basándose en TU info · no en lo que sabe de internet
  • Si el chunk no existe · el bot dice "no sé · te derivo"

Sin RAG bien hecho · el bot alucina precios y servicios. Con RAG bien hecho · alucinaciones bajan típicamente <3%.

6 · Casos de uso REALES que funcionan hoy

Lo que IA conversacional resuelve hoy de verdad en clínicas:

  • Agendamiento citas · entender "necesito hora martes tarde" · cruzar con agenda · proponer slot
  • Triaje pre-consulta · pregunta motivo · prioridad · si necesita urgencia o consulta normal
  • FAQs complejas · "qué incluye primera visita" · "garantía implante" · "tiempo recuperación"
  • Recordatorios con respuesta natural · paciente responde "no puedo ese día" · bot ofrece alternativas
  • Follow-up post-tratamiento · "¿cómo te encuentras 24h post-extracción?" · captura síntomas · escala si hay alerta
  • Información tratamiento general · "qué es una endodoncia" · explicación pre-llamada

7 · Marketing fluff común · qué NO existe (todavía)

Promesas que escuchas y son humo en mayo 2026:

  • "Diagnóstico automatizado" · no es legal · no es ético · y técnicamente no es fiable. Si alguien lo vende · huye.
  • "Detecta emociones del paciente" · Art. 5 AI Act lo prohíbe en contextos sensibles. Marketing fluff.
  • "100% sin alucinaciones"· ningún LLM lo garantiza. Lo realista es <3% con guardrails sólidos.
  • "Sustituye recepcionista totalmente" · prohibido por nuestra propia constitución de claims · y por realidad operativa.
  • "ROI 10x garantizado" · ningún SaaS puede garantizar ROI · depende de cliente. Si lo promete · es comercial agresivo.
  • "Bot habla como humano" · sigue siendo identificable. Es bueno · pero no engaña a paciente atento.
  • "Aprende solo de tu clínica" · el LLM no aprende de tus conversaciones en vivo a menos que hagas fine-tuning. Lo que sí hace es RAG actualizado.

8 · Las 4 cosas que separan un buen sistema de uno malo

Cuando evalúes un proveedor IA conversacional clínica · pide:

  • Guardrails específicos clínicos · NO diagnóstico · NO precios inventados · NO orientación contraindicada
  • RAG sobre TU info · no respuestas genéricas de internet
  • Handoff humano transparente · keyword · señal fricción · keyword urgencia
  • Auditoría completa · cada mensaje queda logueado · puedes revisar · puedes corregir

9 · Costes reales LLM en clínica privada

Realidad económica para una clínica típica con 100-300 conversaciones/mes:

  • Coste API LLM puro: 3-25€/mes según modelo y volumen
  • Embeddings RAG: 1-5€/mes one-time para load inicial · <1€/mes ongoing
  • Coste WhatsApp Cloud API (Meta): 5-30€/mes
  • Software encima (proveedor SaaS): 49-499€/mes según tier
  • Hosting/infra: incluido en proveedor

Total típico clínica pequeña: 60-200€/mes. Total clínica mediana con campañas: 200-600€/mes.

10 · Cómo medir si funciona en TU clínica

Métricas honestas para medir si la IA conversacional aporta:

  • % mensajes resueltos sin handoff · objetivo 60-80% según vertical
  • Tiempo medio respuesta primer mensaje· objetivo <30 segundos vs minutos/horas pre-bot
  • Citas agendadas vía bot vs vía humano · conversión funnel
  • NPS o satisfacción explícita · pregunta al paciente post-conversación
  • Tasa alucinación · revisar muestra mensual · marcar respuestas erróneas
  • Coste por conversación resuelta · total costes / nº conversaciones cerradas

11 · Cómo AI Empire encaja

AI Empire está construida con estos principios:

  • GPT-4o-mini + Claude Haiku según task · cost-cap por clínica
  • RAG por clínica · knowledge base scrape + manual review
  • Guardrails clínicos · no diagnóstico · no precios inventados · no orientación contraindicada
  • Handoff humano por 3 vías (keyword · señal clínica · timeout)
  • Auditoría completa · logs inmutables · revisable
  • Disclosure Art. 50 AI Act en primer mensaje
  • Reporting mensual costes LLM + Meta + métricas conversación

Disclaimer: los nombres de modelos y costes son referencia mayo 2026 · cambian rápidamente. AI Empire es pre-revenue (mayo 2026) · 2 clínicas demo · sin claims de resultado a escala. Si un proveedor te garantiza algo que en este artículo aparece como "marketing fluff" · pide evidencias medibles antes de firmar.

Otros artículos que pueden ayudarte a profundizar en lo mismo.

Deja de regalar ingresos.
Activa tu Revenue OS.

14 días gratis · setup completo incluido · sin permanencia. Si en 14 días no recuperas mínimo 1 cita atribuible al bot · te devolvemos lo pagado y archivamos sin preguntas.

¿Prefieres ver demo grabada antes? · analiza tus reseñas gratis · audit pre-onboarding para tu clínica · 5 min · cero compromiso.