Nightwatch: el equipo de Google que vela por la seguridad de los usuarios

CiberpoderRegulación

El departamento, formado hace cuatro años, intenta tener en cuenta las amenazas y riesgos a los que se exponen usuarios de todo el mundo al usar sus servicios.

Subir un vídeo a Youtube de una manifestación no es especialmente problemático si eres un ciudadano de, por ejemplo, España. Pero si lo haces en algún país en el que la disidencia política está penada, tienes una complicación ética extra: ¿y si las autoridades identifican a los manifestantes gracias a ese vídeo y los castigan por haber participado en la manifestación? Esta es una de las situaciones por las que Google creó Nightwatch hace unos cuatro años.

El equipo es de los más diversos tanto en Google como en todo Silicon Valley. La diversidad, dice a Buzzfeed Amber Yust, ingeniera de software y transexual que forma parte del equipo, es intencional. «No es imposible llegar a la decisión adecuada con un equipo infra-representativo, pero es sin duda más fácil alcanzar esa decisión si sabes que viene de una base amplia de conocimiento, porque tu equipo es más representativo de cómo es el mundo».

El objetivo de Nightwatch, y por eso la diversidad es importante, es tener en cuenta las diferentes circunstancias vitales en las que se encuentran los usuarios. «Lo que requiere esto es sobre todo un entendimiento de los diferentes tipos de amenazas y temores a los que se enfrenta la gente», asegura Lea Kissner, ingeniera y líder de Nightwatch.

Esto se traduce en ofrecer, por ejemplo, herramientas para desenfocar caras en vídeos, pero también para borrar el contenido original con la cara sin desenfocar por si alguna autoridad se lo pide a Google. Además, se aseguran de que los usuarios sepan que tienen esa posibilidad, traduciendo las instrucciones a los idiomas más relevantes.

Necesidades locales en un mundo global

El hecho de que una empresa como Google tenga un equipo como Nightwatch es loable: se trata de un reconocimiento de que, por muy globalizado que esté el mundo, no es igual para todos. Tus necesidades, riesgos y amenazas cambian dependiendo de dónde vivas, de tu clase social, de tu orientación sexual, tu salud o creencias políticas o religiosas. Aceptar que tus usuarios son diversos y que un servicio que se usa sin pensar en Estados Unidos puede causar graves problemas en otro lado del mundo es un paso muy grande.

Y es también un ejemplo claro de por qué un equipo diverso piensa mejor que uno que no lo es. Una persona-tipo (esa para la que está diseñado todo lo que no está diseñado para un colectivo especial) puede sin duda informarse, leer y entrevistar a gente diversa para dar con un producto que de verdad tenga en cuenta sus necesidades. No obstante, se trata de un ejercicio de empatía que muchas veces se queda corto y que es mucho más rápido y directo si tu empleado es un ex-activista sirio que ha vivido en primera mano la combinación de uso de distintas herramientas en una situación determinada.

Por supuesto, nada es tan fácil y los retos éticos son enormes. ¿Cómo evitar, por ejemplo, que esas herramientas para proteger a activistas no sean utilizadas por terroristas? Yust insiste en que el equilibrio es lo importante. «Hay un equilibrio que estamos buscando constantemente entre la libertad de expresión y la moderación. Intentamos encontrar ese equilibrio a escala global».

Leer la biografía del autor  Ocultar la biografía del autor