El caso del juez Andrés Leonelli, acusado en 2016 por Google de tener material de abuso sexual infantil en su cuenta de Drive, reabrió el debate sobre la fiabilidad de los sistemas automatizados de detección de contenidos.
Leonelli fue sobreseído en 2025, al comprobarse que las imágenes correspondían a pruebas de una causa penal que llevaba adelante. Sin embargo, la denuncia inicial, iniciada por la propia plataforma, derivó en una contrademanda contra Google por falta de control humano en sus procesos de verificación.
El reclamo del juez
- Google detectó automáticamente el material y suspendió la cuenta sin evaluar el contexto.
- Leonelli sostuvo que las fotos llegaron a su computadora institucional por canales oficiales y con fines judiciales.
- Denunció que la empresa “descontextualizó información” y que el sistema automatizado “viola principios de derechos humanos” al actuar sin supervisión humana.
Transparencia algorítmica en debate
El caso expone un problema más amplio:
- Los sistemas automáticos generan reportes con consecuencias reales, sin mediación humana.
- Se reclama explicabilidad y trazabilidad de las decisiones algorítmicas cuando afectan derechos fundamentales.
- La automatización no elimina la responsabilidad: las plataformas deben garantizar seguridad técnica y protección frente a riesgos derivados de sus procesos.
Implicancias
La discusión excede a Google y al expediente de Leonelli. Lo que está en juego es el poder de las plataformas digitales para tomar decisiones sobre reputaciones, derechos y legalidad sin intervención humana. En ese cruce entre automatización y garantías, surge la pregunta de fondo: ¿cómo asegurar soberanía digital y responsabilidad en un entorno dominado por algoritmos?
