IA conversacional en clínicas · qué funciona y qué es marketing fluff (análisis 2026)
"IA conversacional" es una de las frases más sobre-usadas del sector salud 2026. Lo que hay debajo varía enormemente. Esta guía separa lo que es real de lo que es marketing fluff · desde la perspectiva de quien lo construye.
1 · Qué es realmente IA conversacional (definición técnica)
IA conversacional · stricto sensu · es:
- Sistema que usa un Large Language Model (LLM) como GPT-4 · Claude · Gemini · Llama
- Capaz de entender lenguaje natural sin keywords pre-programadas
- Genera respuestas contextuales · no plantillas fijas
- Mantiene memoria de turno · entiende contexto de mensajes anteriores
- Razona sobre la query antes de responder (cadena reasoning)
Si tu "IA conversacional" solo hace match de palabras clave y devuelve respuestas fijas · NO es IA conversacional · es FAQ bot rule-based.
2 · FAQ bot rule-based · qué es y cuándo basta
Los FAQ bots tradicionales funcionan así:
- Detecta keywords ("precio" · "horario" · "ubicación")
- Devuelve respuesta pre-escrita asociada a esa keyword
- Si no detecta · cae en respuesta default tipo "no entiendo"
- Sin memoria de conversación · cada mensaje es aislado
Cuándo basta un FAQ bot:
- FAQs estables · 10-20 preguntas frecuentes idénticas
- Sin necesidad de adaptación a tono del paciente
- Bajo volumen y baja variedad de consultas
FAQ bot bien hecho cubre 60-70% de las consultas de una clínica pequeña. Para el otro 30-40% se queda corto.
3 · LLM-powered · qué cambia
Cuando metes un LLM como motor:
- Entiende preguntas mal redactadas · errores tipográficos · jerga
- Combina información de la knowledge base con razonamiento · responde queries compuestas
- Adapta tono · puede ser más formal o más cercano según el paciente
- Captura intención · "quiero saber si me cobráis primera consulta o solo si me trato" se entiende como query compleja
- Riesgo: puede alucinar precios o info clínica si no tiene guardrails
4 · GPT-4 vs Claude · diferencias prácticas
Comparativa para uso clínico (mayo 2026):
- GPT-4o / GPT-4.1 · más rápido · más económico por token · mejor en instrucciones cortas · API estable · más ecosistema
- Claude Opus 4.x · mejor en contexto largo (200k+ tokens) · más cauteloso · sigue mejor instrucciones de guardrails clínicos · mejor en razonamiento estructurado
- GPT-4.1 mini / Claude Haiku · versiones rápidas/baratas · suficientes para FAQs simples
- Gemini Pro 2.5 · contexto largo barato · multimodal · menos verificado en producción clínica europea
Para una clínica española típica · GPT-4o-mini o Claude Haiku 3.5 bastan para 90% queries · usar versión grande solo para escalado complejo. Coste mensual LLM de una clínica activa pequeña: 5-30€.
5 · El truco que separa lo real del fluff · RAG
La diferencia entre un bot genérico y uno útil clínicamente es el RAG (Retrieval-Augmented Generation). Básicamente:
- Cargas tu knowledge base (servicios · precios · horarios · FAQ específicas) en embeddings vectoriales
- Cuando el paciente pregunta · el sistema busca los chunks más relevantes
- Mete esos chunks en el prompt · el LLM responde basándose en TU info · no en lo que sabe de internet
- Si el chunk no existe · el bot dice "no sé · te derivo"
Sin RAG bien hecho · el bot alucina precios y servicios. Con RAG bien hecho · alucinaciones bajan típicamente <3%.
6 · Casos de uso REALES que funcionan hoy
Lo que IA conversacional resuelve hoy de verdad en clínicas:
- Agendamiento citas · entender "necesito hora martes tarde" · cruzar con agenda · proponer slot
- Triaje pre-consulta · pregunta motivo · prioridad · si necesita urgencia o consulta normal
- FAQs complejas · "qué incluye primera visita" · "garantía implante" · "tiempo recuperación"
- Recordatorios con respuesta natural · paciente responde "no puedo ese día" · bot ofrece alternativas
- Follow-up post-tratamiento · "¿cómo te encuentras 24h post-extracción?" · captura síntomas · escala si hay alerta
- Información tratamiento general · "qué es una endodoncia" · explicación pre-llamada
7 · Marketing fluff común · qué NO existe (todavía)
Promesas que escuchas y son humo en mayo 2026:
- "Diagnóstico automatizado" · no es legal · no es ético · y técnicamente no es fiable. Si alguien lo vende · huye.
- "Detecta emociones del paciente" · Art. 5 AI Act lo prohíbe en contextos sensibles. Marketing fluff.
- "100% sin alucinaciones"· ningún LLM lo garantiza. Lo realista es <3% con guardrails sólidos.
- "Sustituye recepcionista totalmente" · prohibido por nuestra propia constitución de claims · y por realidad operativa.
- "ROI 10x garantizado" · ningún SaaS puede garantizar ROI · depende de cliente. Si lo promete · es comercial agresivo.
- "Bot habla como humano" · sigue siendo identificable. Es bueno · pero no engaña a paciente atento.
- "Aprende solo de tu clínica" · el LLM no aprende de tus conversaciones en vivo a menos que hagas fine-tuning. Lo que sí hace es RAG actualizado.
8 · Las 4 cosas que separan un buen sistema de uno malo
Cuando evalúes un proveedor IA conversacional clínica · pide:
- Guardrails específicos clínicos · NO diagnóstico · NO precios inventados · NO orientación contraindicada
- RAG sobre TU info · no respuestas genéricas de internet
- Handoff humano transparente · keyword · señal fricción · keyword urgencia
- Auditoría completa · cada mensaje queda logueado · puedes revisar · puedes corregir
9 · Costes reales LLM en clínica privada
Realidad económica para una clínica típica con 100-300 conversaciones/mes:
- Coste API LLM puro: 3-25€/mes según modelo y volumen
- Embeddings RAG: 1-5€/mes one-time para load inicial · <1€/mes ongoing
- Coste WhatsApp Cloud API (Meta): 5-30€/mes
- Software encima (proveedor SaaS): 49-499€/mes según tier
- Hosting/infra: incluido en proveedor
Total típico clínica pequeña: 60-200€/mes. Total clínica mediana con campañas: 200-600€/mes.
10 · Cómo medir si funciona en TU clínica
Métricas honestas para medir si la IA conversacional aporta:
- % mensajes resueltos sin handoff · objetivo 60-80% según vertical
- Tiempo medio respuesta primer mensaje· objetivo <30 segundos vs minutos/horas pre-bot
- Citas agendadas vía bot vs vía humano · conversión funnel
- NPS o satisfacción explícita · pregunta al paciente post-conversación
- Tasa alucinación · revisar muestra mensual · marcar respuestas erróneas
- Coste por conversación resuelta · total costes / nº conversaciones cerradas
11 · Cómo AI Empire encaja
AI Empire está construida con estos principios:
- GPT-4o-mini + Claude Haiku según task · cost-cap por clínica
- RAG por clínica · knowledge base scrape + manual review
- Guardrails clínicos · no diagnóstico · no precios inventados · no orientación contraindicada
- Handoff humano por 3 vías (keyword · señal clínica · timeout)
- Auditoría completa · logs inmutables · revisable
- Disclosure Art. 50 AI Act en primer mensaje
- Reporting mensual costes LLM + Meta + métricas conversación
Disclaimer: los nombres de modelos y costes son referencia mayo 2026 · cambian rápidamente. AI Empire es pre-revenue (mayo 2026) · 2 clínicas demo · sin claims de resultado a escala. Si un proveedor te garantiza algo que en este artículo aparece como "marketing fluff" · pide evidencias medibles antes de firmar.