Consultoría estratégica en Inteligencia Artificial

IA que se demuestra en lo construido, no en lo prometido.

Diseño marcos de gobernanza de IA, formo equipos y transformo organizaciones educativas y corporativas para que adopten la inteligencia artificial con seguridad regulatoria, ética integrada y resultados medibles desde el primer sprint.

Servicios principales

Dos robots humanoides frente a un edificio institucional, cubiertos por datos binarios y rodeados por la bandera de la Unión Europea
La inteligencia artificial generativa bajo la mirada reguladora de la Unión Europea

01  Gobernanza y Auditoría de IA

Evaluación integral de los sistemas de IA de tu organización: sesgos algorítmicos, trazabilidad de datos, cumplimiento del AI Act europeo y alineación con ISO 42001. Entregable: informe BIAT con plan de mitigación ejecutable y hoja de ruta regulatoria.
s según complejidad organizativa

Impacto de la inteligencia artificial en la educación de futuros docentes
La inteligencia artificial aplicada en la formación de docentes permite personalizar el aprendizaje y enfrentar desafíos éticos.

02 Formación IA para Equipos y Organizaciones

Programas de capacitación diseñados a medida para docentes, equipos directivos y profesionales de sectores regulados. Desde talleres de 3 horas hasta programas de 30h con certificación. Marco AI-TPACK + práctica real desde la primera sesión.

Impacto del metaverso en la educación
Integración del metaverso en la educación, combinando tecnologías emergentes para mejorar la experiencia de aprendizaje.

03  Transformación Digital Educativa con IA

Diagnóstico de madurez IA de tu centro o red educativa, diseño de planes individualizados automatizados (PI+IA), integración de IA generativa en el currículo y seguimiento de impacto con métricas. Quick Win en 3 días, transformación completa en 12 meses.

Comparación de los pros y contras de los movimientos estratégicos de DeepSeek.
Evaluación de los beneficios y riesgos de la estrategia de DeepSeek en el desarrollo de IA.

04  Due Diligence y Estrategia Corporativa de IA

Análisis 360° para procesos de fusión, adquisición o turnaround: dimensión financiera, cultural, de resiliencia y regulatoria. Whitepapers sectoriales, roadmaps de adopción y reporting C-Suite listo para comité de dirección.

Diagrama de la arquitectura de Claude Research: LeadResearcher orquesta a subagentes Sonnet (Búsqueda académica, Compliance, Benchmarking) hacia CitationAgent; salida con citas verificables o [SIN CITA].
Claude Research — LeadResearcher → Subagentes Sonnet → CitationAgent → Reporte auditable con citas verificables / [SIN CITA].

05  Diseño de Playbooks y Marcos Operativos de IA

Construcción de playbooks personalizados, librerías de prompts, arquitecturas multi-agente y flujos RAG híbridos para tu organización. Artefactos reutilizables que tu equipo puede escalar sin dependencia externa.

“El valor de la IA no está en la demo. Está en el artefacto que queda y en la métrica que lo sostiene.”

JL – delatorre.ai

Preguntas frecuentes (FAQ)

¿Es obligatorio cumplir el EU AI Act si mi centro educativo usa ChatGPT u otras herramientas de IA?

Sí. El EU AI Act (Reglamento UE 2024/1689) es de aplicación directa en toda la Unión Europea. Los centros educativos están especialmente afectados porque el Anexo III clasifica como “sistemas de alto riesgo” aquellos que evalúan aprendizaje, determinan acceso a instituciones educativas o monitorizan comportamientos durante exámenes.
Si usas IA para generar evaluaciones, detectar plagio, recomendar itinerarios educativos o cualquier decisión automatizada sobre alumnado, estás desplegando un sistema de alto riesgo. Esto implica: evaluación de riesgos antes del despliegue, documentación técnica, transparencia hacia familias, supervisión humana efectiva y registro en base de datos europea.
El incumplimiento puede conllevar sanciones de hasta 35 millones de euros o el 7% de facturación global. En delatorre.ai implemento el framework EUOALO específicamente diseñado para compliance EU AI Act en contextos educativos españoles, compatible con LOPDGD.

¿Qué diferencia hay entre cumplir el RGPD y cumplir el EU AI Act en educación?

Son marcos complementarios pero diferentes:
RGPD/LOPDGD regula el TRATAMIENTO de datos personales: ¿estás recogiendo, almacenando o procesando datos de personas? Se enfoca en consentimiento, derechos de los interesados y seguridad de datos.
EU AI Act regula el DESPLIEGUE de sistemas de IA: ¿estás usando algoritmos que toman decisiones o generan contenido? Se enfoca en riesgos algorítmicos, transparencia, supervisión humana y detección de sesgos.
Ejemplo práctico: Si usas IA para personalizar aprendizaje, el RGPD pregunta “¿tienes consentimiento para procesar datos del alumno?” y el EU AI Act pregunta “¿has evaluado el riesgo de sesgo en las recomendaciones?”. Necesitas cumplir AMBOS. Muchos centros tienen DPD que audita RGPD, pero nadie que evalúe riesgos algorítmicos del EU AI Act.
En mis proyectos integro compliance RGPD+EU AI Act en un solo marco porque en educación con IA es imposible separarlos.

¿Cómo detectar si un alumno usó ChatGPT sin prohibir el uso de IA?

La pregunta clave no es “¿usó IA?” sino “¿aprendió el alumno?”. Los detectores de IA tienen falsos positivos del 30-40% y sesgos contra non-native speakers. No funcionan.
Estrategia efectiva:
Rediseña la evaluación: Preguntas de aplicación en lugar de repetición (“¿Cómo aplicarías X en tu contexto?” vs “¿Qué es X?”). Presentaciones orales con preguntas en vivo. Portfolios con proceso documentado.
Integra IA explícitamente: “Genera borrador con ChatGPT, luego critica sus errores” o “Compara tu respuesta con la de Claude, argumenta tu preferencia”.
Indicadores de uso sin comprensión: Incapacidad de explicar oralmente lo escrito, referencias inventadas (IA alucina fuentes), cambio abrupto de estilo, errores típicos de IA (genericidad excesiva).
Diálogo abierto: “Veo que tu trabajo tiene nivel muy alto. ¿Cómo lo desarrollaste?”. Si admite uso de IA: “Genial. ¿Qué aprendiste?”.
En mi Sistema PI+IA propongo rúbricas que evalúan capacidad de usar IA estratégicamente (20%), pensamiento crítico sobre outputs (30%) y aplicación original (50%). Si un alumno puede aprobar solo con ChatGPT, el problema es el diseño de tu evaluación.

¿Cuánto cuesta implementar un programa de IA en mi centro educativo?

La inversión varía según alcance:
Piloto mínimo (€2.000-€4.000): Mini-audit de 48h + formación para 5-10 early adopters + política institucional básica. Timing: 4-6 semanas. Resultado: evidencia de impacto para decidir escalado.
Programa de centro (€8.000-€15.000): Auditoría completa + formación claustro (16h) + política institucional + DPIA + herramientas (licencias ChatGPT Team) + acompañamiento trimestral. Timing: 1 trimestre implementación + 2 trimestres consolidación. Resultado: 80%+ claustro con competencia IA, governance operativa, métricas de impacto.
Transformación integral (€25.000-€50.000): Todo lo anterior + formación avanzada por departamentos + GPTs personalizados + sistema de medición de impacto + formación de formadores internos + certificación compliance EU AI Act + acompañamiento anual. Timing: 1 año académico completo.
ROI esperado: Ahorro de 20-30% tiempo en preparación materiales. Para 10 docentes esto equivale a 540h/año liberadas (valor ~€13.500). La inversión en governance previene multas RGPD potenciales de €20.000-€100.000.
Ofrezco opciones de financiación mediante presupuesto de formación docente, fondos Next Generation EU según CCAA, y pago fraccionado.

¿Ofreces garantía de resultados? ¿Qué pasa si mi claustro no adopta la IA?

No ofrezco “garantías mágicas”, pero SÍ garantizo contractualmente:
Lo que garantizo: Entregables documentados (materiales, políticas, informes, horas acordadas), calidad pedagógica (contenidos alineados con currículo español, adaptados a tu contexto), compliance legal (documentación conforme RGPD/EU AI Act).
Lo que NO garantizo (nadie debería): Que 100% del claustro usará IA diariamente (depende de cultura organizativa), que resultados académicos mejorarán X% (demasiadas variables externas), que todas las herramientas funcionarán perfectamente (tecnología tiene limitaciones).
Protocolo de éxito: Diagnóstico previo de disposición, identifico early adopters, adapto expectativas realistas. Durante formación: 70% práctica, quick wins desde día 1. Después: seguimiento 30-60 días, canal de consulta, medición de adopción.
Indicadores realistas: Éxito mínimo (80% proyectos): 30-40% claustro usa IA ocasionalmente, política institucional operativa, 0 incidentes privacidad. Éxito alto (20% proyectos): 70%+ claustro usa IA ocasionalmente, centro referente, impacto medible en aprendizaje.
Si no funciona: Si es problema técnico mío, reviso sin coste o reembolso parcial. Si es resistencia organizativa, reunión de diagnóstico + recomendaciones sin cargo adicional. Prefiero rechazar contrato que cobrar por algo que sé que no va a funcionar.

Últimas entradas del blog

  • El Reglament Europeu d’Intel·ligència Artificial

    El Reglament Europeu d’Intel·ligència Artificial (AI Act) és vigent. L’absència de sancions és estructural, no pas permanent.

  • EU AI Act

    El AI Act está en vigor. La ausencia de multas es estructural, no permanente.

  • Personas caminando por un túnel urbano iluminado, con estrellas de la bandera de la Unión Europea en la pared, simbolizando el avance hacia la regulación de la inteligencia artificial

    Sanciones del EU AI Act: lo que viene en 2026

  • ChatGPT 代理架构图(v2.3):六层功能模型与运行机制详解

    ChatGPT 代理架构图(v2.3):六层功能模型与运行机制详解