Opinión Bolivia

  • Diario Digital | jueves, 28 de marzo de 2024
  • Actualizado 00:01

ES UNA FORMA DE REPROCHE A LA "BRUTALIDAD POLICIAL"

Microsoft tampoco venderá su tecnología de reconocimiento facial a la Policía

"En la actualidad, no vendemos nuestra tecnología de reconocimiento facial a los departamento de Policía de EE.UU., y seguiremos sin hacerlo hasta que no exista en el país una ley fuerte y basada en los derechos humanos", indicó la empresa. Continúan las repercusiones por la muerte de George Floyd bajo custodia policial.
Microsoft tampoco venderá su tecnología de reconocimiento facial a la Policía
La multinacional estadounidense Microsoft siguió este jueves los pasos de IBM y Amazon y anunció que tampoco venderá su tecnología de reconocimiento facial a la Policía, como respuesta a las demandas de justicia racial y contra la brutalidad policial en EE.UU. derivadas de la muerte del afroamericano George Floyd a manos de un agente en Mineápolis.

"En la actualidad, no vendemos nuestra tecnología de reconocimiento facial a los departamento de Policía de EE.UU., y seguiremos sin hacerlo hasta que no exista en el país una ley fuerte y basada en los derechos humanos", indicó la empresa con sede en Redmond (estado de Washington, EE.UU.) en un comunicado.

La respuesta de Microsoft llega la misma semana en que otros dos gigantes de la tecnología, IBM y Amazon, anunciasen medidas similares: en el caso de IBM, retirándose por completo del negocio del reconocimiento facial; y en el de Amazon, prohibiendo las ventas de su tecnología a la Policía durante un año.

El año pasado, San Francisco se convirtió en la primera gran ciudad de EE.UU. en prohibir a todas las agencias locales, entre ellas la Policía, el uso de técnicas de reconocimiento facial, cada vez más empleadas por las autoridades para identificar a criminales pero criticadas por las organizaciones proderechos civiles.

Gobiernos y agencias de seguridad de todo el mundo hace años que utilizan las técnicas de reconocimiento facial (capaces de identificar a individuos mediante inteligencia artificial) para tareas como detectar a criminales, ayudar en las tareas de búsqueda de menores desaparecidos o prevenir el fraude documental.

Sin embargo, los grupos en defensa de los derechos civiles aseguran que esta tecnología invade la privacidad de los ciudadanos de forma excesiva, a la vez que puede perpetuar sesgos policiales contra minorías étnicas, ya que se ha probado que tiende más al error con personas de piel oscura.

En este sentido, un estudio llevado a cabo en 2018 por la Unión Estadounidense de Libertades Civiles (ACLU, en inglés) halló que el reconocimiento facial había identificado incorrectamente a 28 congresistas de EE.UU. (en su mayoría pertenecientes a minorías étnicas) como criminales al comparar sus fotografías con imágenes policiales.