Sesión 4: Probabilidad Condicional (Bayes para Política Pública)
Caso de Política Pública
La Contraloría Municipal implementó un sistema de IA para detectar posibles irregularidades en compras públicas. El sistema tiene: - Sensibilidad: 90% (detecta 9 de cada 10 casos reales de corrupción) - Especificidad: 95% (solo 5% de casos honestos son marcados incorrectamente)
Suena genial, ¿verdad? Pero… solo el 5% de las compras tienen irregularidades reales
Tu tarea: Calcular: - Si el sistema marca una compra, ¿cuál es la probabilidad REAL de que sea fraudulenta? - ¿Cuántos falsos positivos generaremos? - ¿Vale la pena auditar todas las compras marcadas?
Paradoja de Bayes: Un test “muy preciso” puede generar más falsos que verdaderos.
Parte 1: Configuración y Conceptos
Parte 2: Simulación de la Realidad
Parte 3: Matriz de Confusión
Parte 4: El Valor Predictivo Positivo (VPP)
LA PREGUNTA CLAVE: Si la IA marca una compra, ¿cuál es la probabilidad de que SEA REALMENTE fraudulenta?
Parte 5: Fórmula de Bayes
Parte 6: Análisis de Sensibilidad (Prevalencia)
Parte 7: Estrategias de Mejora
Parte 8: Visualización del Problema
Parte 9: Tabla de Decisión
Parte 10: Comparación Visual de Estrategias
Ejercicio Individual (Entregable)
Parte A: Variación de Parámetros
- Re-simula con prevalencia = 1% (fraude muy raro):
- Calcula el nuevo VPP
- ¿Cuántos falsos positivos genera?
- ¿Cambiaría tu recomendación?
- Mejora de sensibilidad: Cambia sensibilidad a 95% (mantén todo lo demás):
- ¿Mejora más el VPP que mejorar especificidad?
- Explica por qué
Parte B: Análisis Escrito
Tabla comparativa de las 4 estrategias: | Estrategia | VPP | Costo | Fraudes detectados | Trade-off | |————|—–|——-|——————-|———–|
Explica en 6 líneas:
- ¿Por qué un test “90% preciso” puede generar más falsos que verdaderos?
- ¿Qué factor importa más: sensibilidad, especificidad, o prevalencia?
Parte C: Aplicación Práctica
- Diseña un protocolo de auditoría (1 página):
- ¿Qué compras auditar?
- ¿En qué orden?
- ¿Con qué criterios adicionales?
- Incluye 1 limitación
Preguntas de Discusión
- Falsos positivos vs falsos negativos:
- ¿Qué es peor: auditar inocentes o dejar pasar fraudes?
- ¿Cambia tu respuesta según el contexto?
- Comunicación del riesgo:
- ¿Cómo explicas “VPP = 30%” a un no-experto?
- ¿Dirías “70% son falsos” o “solo 30% son reales”?
- Dilema ético:
- ¿Es justo marcar compras sabiendo que la mayoría son honestas?
- ¿Cómo proteges reputaciones ante falsos positivos?
- Mejora continua:
- ¿Invertirías más en mejorar sensibilidad o especificidad?
- ¿Por qué importa tanto la prevalencia?
Recursos Adicionales
Conceptos clave:
- Teorema de Bayes: P(A|B) = P(B|A) × P(A) / P(B)
- Sensibilidad: Proporción de positivos correctamente identificados
- Especificidad: Proporción de negativos correctamente identificados
- VPP: Probabilidad de enfermedad dado resultado positivo
- Prevalencia: Proporción de casos en la población
Aplicaciones:
- 🏥 Tests médicos (COVID, VIH, cáncer)
- 🔍 Sistemas anticorrupción
- ✈️ Detección de amenazas en aeropuertos
- 📧 Filtros de spam
- 🎯 Sistemas de recomendación
Para profundizar: - “Thinking, Fast and Slow” - Kahneman (sobre sesgos) - “The Signal and the Noise” - Nate Silver - “Base rate fallacy” en Wikipedia
Última reflexión: Un test perfecto con población incorrecta genera basura. El contexto (prevalencia) importa tanto como la precisión.