Consultoría estratégica en Inteligencia Artificial
Diseño marcos de gobernanza de IA, formo equipos y transformo organizaciones educativas y corporativas para que adopten la inteligencia artificial con seguridad regulatoria, ética integrada y resultados medibles desde el primer sprint.

Más de dos décadas diseñando ecosistemas donde la IA no sustituye al profesional, sino que amplifica su criterio. Docentes, equipos directivos y profesionales de sectores regulados ya trabajan con mis marcos.
AI-TPACK, BIAT, PI+IA, Quick Wins, Taxonomía Dinámica… Cada marco está documentado, probado en contexto real y listo para desplegar. No vendo conceptos: entrego artefactos operativos.
La ética no es un añadido; está integrada en cada fase del proyecto. Auditoría de sesgos, trazabilidad de modelos, alineación con AI Act, GDPR e ISO 42001. Tu organización cumple porque el diseño lo garantiza.

Evaluación integral de los sistemas de IA de tu organización: sesgos algorítmicos, trazabilidad de datos, cumplimiento del AI Act europeo y alineación con ISO 42001. Entregable: informe BIAT con plan de mitigación ejecutable y hoja de ruta regulatoria.
s según complejidad organizativa

Programas de capacitación diseñados a medida para docentes, equipos directivos y profesionales de sectores regulados. Desde talleres de 3 horas hasta programas de 30h con certificación. Marco AI-TPACK + práctica real desde la primera sesión.

Diagnóstico de madurez IA de tu centro o red educativa, diseño de planes individualizados automatizados (PI+IA), integración de IA generativa en el currículo y seguimiento de impacto con métricas. Quick Win en 3 días, transformación completa en 12 meses.

Análisis 360° para procesos de fusión, adquisición o turnaround: dimensión financiera, cultural, de resiliencia y regulatoria. Whitepapers sectoriales, roadmaps de adopción y reporting C-Suite listo para comité de dirección.
![Diagrama de la arquitectura de Claude Research: LeadResearcher orquesta a subagentes Sonnet (Búsqueda académica, Compliance, Benchmarking) hacia CitationAgent; salida con citas verificables o [SIN CITA].](https://delatorre.ai/wp-content/uploads/2025/09/pipeline.gif)
Construcción de playbooks personalizados, librerías de prompts, arquitecturas multi-agente y flujos RAG híbridos para tu organización. Artefactos reutilizables que tu equipo puede escalar sin dependencia externa.

“El valor de la IA no está en la demo. Está en el artefacto que queda y en la métrica que lo sostiene.”
JL – delatorre.ai
Sí. El EU AI Act (Reglamento UE 2024/1689) es de aplicación directa en toda la Unión Europea. Los centros educativos están especialmente afectados porque el Anexo III clasifica como “sistemas de alto riesgo” aquellos que evalúan aprendizaje, determinan acceso a instituciones educativas o monitorizan comportamientos durante exámenes.
Si usas IA para generar evaluaciones, detectar plagio, recomendar itinerarios educativos o cualquier decisión automatizada sobre alumnado, estás desplegando un sistema de alto riesgo. Esto implica: evaluación de riesgos antes del despliegue, documentación técnica, transparencia hacia familias, supervisión humana efectiva y registro en base de datos europea.
El incumplimiento puede conllevar sanciones de hasta 35 millones de euros o el 7% de facturación global. En delatorre.ai implemento el framework EUOALO específicamente diseñado para compliance EU AI Act en contextos educativos españoles, compatible con LOPDGD.
Son marcos complementarios pero diferentes:
RGPD/LOPDGD regula el TRATAMIENTO de datos personales: ¿estás recogiendo, almacenando o procesando datos de personas? Se enfoca en consentimiento, derechos de los interesados y seguridad de datos.
EU AI Act regula el DESPLIEGUE de sistemas de IA: ¿estás usando algoritmos que toman decisiones o generan contenido? Se enfoca en riesgos algorítmicos, transparencia, supervisión humana y detección de sesgos.
Ejemplo práctico: Si usas IA para personalizar aprendizaje, el RGPD pregunta “¿tienes consentimiento para procesar datos del alumno?” y el EU AI Act pregunta “¿has evaluado el riesgo de sesgo en las recomendaciones?”. Necesitas cumplir AMBOS. Muchos centros tienen DPD que audita RGPD, pero nadie que evalúe riesgos algorítmicos del EU AI Act.
En mis proyectos integro compliance RGPD+EU AI Act en un solo marco porque en educación con IA es imposible separarlos.
La pregunta clave no es “¿usó IA?” sino “¿aprendió el alumno?”. Los detectores de IA tienen falsos positivos del 30-40% y sesgos contra non-native speakers. No funcionan.
Estrategia efectiva:
Rediseña la evaluación: Preguntas de aplicación en lugar de repetición (“¿Cómo aplicarías X en tu contexto?” vs “¿Qué es X?”). Presentaciones orales con preguntas en vivo. Portfolios con proceso documentado.
Integra IA explícitamente: “Genera borrador con ChatGPT, luego critica sus errores” o “Compara tu respuesta con la de Claude, argumenta tu preferencia”.
Indicadores de uso sin comprensión: Incapacidad de explicar oralmente lo escrito, referencias inventadas (IA alucina fuentes), cambio abrupto de estilo, errores típicos de IA (genericidad excesiva).
Diálogo abierto: “Veo que tu trabajo tiene nivel muy alto. ¿Cómo lo desarrollaste?”. Si admite uso de IA: “Genial. ¿Qué aprendiste?”.
En mi Sistema PI+IA propongo rúbricas que evalúan capacidad de usar IA estratégicamente (20%), pensamiento crítico sobre outputs (30%) y aplicación original (50%). Si un alumno puede aprobar solo con ChatGPT, el problema es el diseño de tu evaluación.
La inversión varía según alcance:
Piloto mínimo (€2.000-€4.000): Mini-audit de 48h + formación para 5-10 early adopters + política institucional básica. Timing: 4-6 semanas. Resultado: evidencia de impacto para decidir escalado.
Programa de centro (€8.000-€15.000): Auditoría completa + formación claustro (16h) + política institucional + DPIA + herramientas (licencias ChatGPT Team) + acompañamiento trimestral. Timing: 1 trimestre implementación + 2 trimestres consolidación. Resultado: 80%+ claustro con competencia IA, governance operativa, métricas de impacto.
Transformación integral (€25.000-€50.000): Todo lo anterior + formación avanzada por departamentos + GPTs personalizados + sistema de medición de impacto + formación de formadores internos + certificación compliance EU AI Act + acompañamiento anual. Timing: 1 año académico completo.
ROI esperado: Ahorro de 20-30% tiempo en preparación materiales. Para 10 docentes esto equivale a 540h/año liberadas (valor ~€13.500). La inversión en governance previene multas RGPD potenciales de €20.000-€100.000.
Ofrezco opciones de financiación mediante presupuesto de formación docente, fondos Next Generation EU según CCAA, y pago fraccionado.
No ofrezco “garantías mágicas”, pero SÍ garantizo contractualmente:
Lo que garantizo: Entregables documentados (materiales, políticas, informes, horas acordadas), calidad pedagógica (contenidos alineados con currículo español, adaptados a tu contexto), compliance legal (documentación conforme RGPD/EU AI Act).
Lo que NO garantizo (nadie debería): Que 100% del claustro usará IA diariamente (depende de cultura organizativa), que resultados académicos mejorarán X% (demasiadas variables externas), que todas las herramientas funcionarán perfectamente (tecnología tiene limitaciones).
Protocolo de éxito: Diagnóstico previo de disposición, identifico early adopters, adapto expectativas realistas. Durante formación: 70% práctica, quick wins desde día 1. Después: seguimiento 30-60 días, canal de consulta, medición de adopción.
Indicadores realistas: Éxito mínimo (80% proyectos): 30-40% claustro usa IA ocasionalmente, política institucional operativa, 0 incidentes privacidad. Éxito alto (20% proyectos): 70%+ claustro usa IA ocasionalmente, centro referente, impacto medible en aprendizaje.
Si no funciona: Si es problema técnico mío, reviso sin coste o reembolso parcial. Si es resistencia organizativa, reunión de diagnóstico + recomendaciones sin cargo adicional. Prefiero rechazar contrato que cobrar por algo que sé que no va a funcionar.





Contacto
Sin compromiso. Sin slides vacías. Una conversación directa para entender tu contexto, identificar oportunidades reales y definir un primer entregable concreto. Si hay encaje, arrancamos. Si no, te llevas claridad.