IBM ya no ofrecerá software de análisis o reconocimiento facial para investigación. No quiere verse vinculada con el uso de su tecnología por la policía, entre otros dilemas éticos
Esto es lo que acaba de comunicar el CEO de IBM al congreso norteamericano. Tras esta decisión, hay un dilema ético que nos afecta a cada uno de nosotros: el uso de nuestra cara para la vigilancia masiva, la etiquetación racial, y otras violaciones de los derechos humanos.
Desligarse del racismo
IBM había ensayado su software de reconocimiento facial con la policía de Nueva York. Y el principal objetivo de su retirada es no vincularse con el uso policial de vigilancia masiva en las protestas tras la muerte del afroamericano George Floyd en EEUU.
La tecnología de reconocimiento facial permite rastrear protestas y manifestaciones (cualquiera), seleccionar un rostro (cualquiera), e identificarlo cada vez con más fidelidad
En la carta presentada por el CEO, declara: “IBM se opone con firmeza y no condonará el uso de cualquier tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros vendedores, para la vigilancia masiva, la etiquetación racial” y las violaciones de los derechos humanos».
Las razones anteriores son las que ha expuesto el CEO de IBM para abandonar el desarrollo de esta tecnología que, al usuario común y corriente, le llega como una novedad tecnológica útil e inocente.
El lado amable de reconocer caras
Nuestra cara sirve como contraseña para iniciar sesión en algunos móviles, y centenares de aplicaciones nos permiten ponerle orejas de conejo o pestañas de cervatillo. Además, subimos nuestro retrato a las redes sociales sin miramientos, y, en algunos países ya se ha iniciado el reconocimiento facial para identificar clientes fieles en establecimientos a los que enviar ofertas que le vayan a su perfil. Esa es la superficie amable de una tecnología con mucho futuro, pero que ya tiene pies de barro.
El reconocimiento facial puede iniciar sesión en su iPhone, rastrear criminales a través de multitudes e identificar clientes leales en las tiendas.
¿Quieres saber qué ha sido de tu cara?
Puede ocurrir esto: la has subido a internet libre de derechos de uso. La han utilizado en un base de datos que comparten ingenieros y científicos para desarrollar programas de Inteligencia Artificial de reconocimiento facial. Una vez que tu rostro está en esa base, es imposible salir de ella, porque se ha descargado miles de veces en miles de centros de investigación del mundo, entre ellos, los de IBM
Necesitan millones de rostros humanos
La tecnología se basa en algoritmos que aprenden a reconocer rostros humanos y las miles de posibilidades que hay en una cara. Para aprender a identificarnos entre tanta variedad, han de ver cientos de miles de retratos. Para los técnicos de IBM y otros gigantes que investigan Reconocimiento Facial, esas fotos provienen de Internet, donde millones de personas subimos nuestras fotos, y son utilizadas sin nuestro consentimiento. Pero esto no es todo lo malo.
Militares y empresas en China las estaban utilizando para desarrollar programas de vigilancia represiva en la provincia de Xinjiang
En enero, IBM compartió millones de fotos que fueron tomadas del sitio de alojamiento de fotos Flickr para el desarrollo de sus tecnologías. Microsoft también retiró una base de datos de reconocimiento facial con 10 millones de imágenes de 100.000 personas tras las afirmaciones de que los militares y las empresas en China las estaban utilizando para desarrollar programas de vigilancia represiva en la provincia de Xinjiang.
La base de datos, denominada MS Celeb, se publicó en 2016. Microsoft afirmó que era el conjunto de datos de reconocimiento facial más grande del mundo. Sin embargo, a las personas que figuran en la base de datos no se les pidió su consentimiento.
IBM se baja del barco para no vincularse a la vigilancia policial en NY
«IBM se opone firmemente y no tolerará el uso de ninguna tecnología (de reconocimiento facial), incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, el perfil racial, las violaciones de los derechos humanos y las libertades básicas, o cualquier propósito que no sea coherente con nuestro valores y principios de tolerancia y transparencia», dice el CEO de IBM en la carta que ha dirigido a los senadores norteamericanos.
Y, en esta carta, se plantea el principal dilema ético del reconocimiento facial: «Creemos que ahora es el momento de comenzar un diálogo nacional sobre si las agencias nacionales de aplicación de la ley deberían emplear la tecnología de reconocimiento facial». Es decir, ¿es bueno investigar para dotar a la policía de una herramienta que identificará a cualquier ser humano se esconda donde se esconda? ¿y si esa tecnología se desarrolla con tu rostro?
Quién usa tu cara
Pues Amazon, por ejemplo, desarrolla software de Reconocimiento Facial que vende a las fuerzas del orden. Y se alimenta de fotos públicas para desarrollarlo. Facebook también recibió la orden en enero de pagar $ 550 millones para resolver una demanda colectiva por el uso ilegal de la tecnología de reconocimiento facial. Así que es más que probable que tu rostro ya esté marcado, y no precisamente con unas inocentes orejas de conejito.
Ahora, IBM acaba de abandonar el barco, que navega en aguas realmente turbias. Abandona porque se descubrió que compartía datos de casi un millón de fotos tomadas de Flickr en enero de 2019 sin el consentimiento de los sujetos, aunque las fotos se compartieron bajo una licencia Creative Commons.
Who’s using your face? The ugly
truth about facial recognition#ai #datasets #imageprocessing #creativecommons Awesome project #megapixels by @adamhrv https://t.co/mboOs2s7fH pic.twitter.com/D5a9Q3K3zG— Douglas Cabel (@symbole) April 27, 2019