Mark Zuckerberg declaró por primera vez ante un jurado en el proceso que examina si Meta diseñó plataformas como Instagram con características adictivas que perjudican a menores. El caso, impulsado por una joven de 20 años identificada como Kaley, podría influir en cientos de demandas similares en Estados Unidos.
La demandante sostiene que Instagram y YouTube fueron concebidas para maximizar el tiempo de uso desde edades tempranas, lo que —según su versión— contribuyó a ansiedad, depresión y dismorfia corporal. La empresa rechaza las acusaciones y afirma haber desarrollado herramientas de protección para adolescentes.
Durante el interrogatorio, el eje central fue determinar qué conocía la compañía sobre los riesgos para jóvenes y si adoptó medidas suficientes para mitigarlos. Zuckerberg aseguró que el objetivo de Meta es ofrecer productos “valiosos” a largo plazo y no generar dependencia perjudicial. Admitió que el tiempo de permanencia en la aplicación es un indicador relevante frente a competidores como TikTok, aunque negó que los documentos internos sobre metas de uso representen objetivos estrictos.
Uno de los puntos más debatidos fueron los filtros de imagen que modifican la apariencia física. El CEO explicó que la compañía optó por permitirlos, sin promoverlos activamente, en defensa de la libertad de expresión, pese a advertencias internas sobre su posible impacto en la autoestima de adolescentes.
También se analizaron reportes internos que estimaban millones de usuarios menores de 13 años en la plataforma antes de que se implementaran verificaciones más estrictas de edad. Zuckerberg defendió la evolución de estos controles y afirmó que Meta utiliza actualmente inteligencia artificial para estimar la edad de los usuarios y aplicar restricciones. Añadió que los adolescentes representan menos del 1 % de los ingresos de Instagram.
La defensa argumenta que los problemas de salud mental de Kaley responden a factores personales y familiares, no al diseño de las plataformas. La parte demandante, en cambio, sostiene que la empresa tenía la responsabilidad de proteger especialmente a usuarios vulnerables.
La audiencia reunió a padres que atribuyen a las redes sociales daños graves e incluso la muerte de sus hijos. Entre ellos estuvo Tammy Rodríguez, madre de una niña de 11 años que se suicidó en 2021 tras una presunta adicción a Instagram y Snapchat. Su demanda es una de las más de 1.500 acciones civiles en curso contra compañías del sector.


