Cómo las computadoras ven rostros y otros objetos
Los algoritmos diseñados para detectar rasgos faciales y reconocer rostros individuales se han vuelto más sofisticados desde los primeros esfuerzos hace décadas.
Los algoritmos diseñados para detectar rasgos faciales y reconocer rostros individuales se han vuelto más sofisticados desde los primeros esfuerzos hace décadas. AP
- ETIQUETAS:
- noticias
Por: Internacional / AP -
Las computadoras comenzaron a reconocer caras humanas en imágenes hace décadas, pero ahora los sistemas de inteligencia artificial rivalizan con la capacidad de las personas para clasificar objetos en fotos y videos.
Eso está suscitando un mayor interés por parte de las agencias gubernamentales y las empresas, que están ansiosas por otorgar habilidades de visión en todo tipo de máquinas.
Entre ellos: autos sin conductor, drones, robots personales, cámaras en la tienda y escáneres médicos que pueden buscar cáncer de piel. También hay nuestros propios teléfonos, algunos de los cuales ahora se pueden desbloquear con solo echar un vistazo.
¿COMO FUNCIONA?
Los algoritmos diseñados para detectar rasgos faciales y reconocer rostros individuales se han vuelto más sofisticados desde los primeros esfuerzos hace décadas.
Un método común ha consistido en medir las dimensiones faciales, como la distancia entre la nariz y la oreja o de una esquina del ojo a otra. Esa información puede dividirse en números y coincidir con datos similares extraídos de otras imágenes. Cuanto más cerca están, mejor se igualan.
Tal análisis se ve ahora favorecido por una mayor potencia informática y enormes cantidades de imágenes digitales que pueden almacenarse y compartirse fácilmente.
LEE TAMBIÉN: Del lápiz esferográfico al boli, el invento que cambió el modo de escribir
DE LAS CARAS A OBJETOS (Y MASCOTAS)
"El reconocimiento facial es un tema antiguo. Siempre ha sido bastante bueno. Lo que realmente atrajo la atención de todos es el reconocimiento de objetos ", dice Michael Brown, profesor de ciencias de la computación en la Universidad de York de Toronto, quien ayuda a organizar la Conferencia anual sobre Visión por Computadora y Reconocimiento de Patrones.
La investigación de la última década se ha centrado en el desarrollo de redes neuronales similares al cerebro que pueden "aprender" automáticamente a reconocer lo que hay en una imagen al buscar patrones en conjuntos de datos grandes.
Pero los humanos continúan ayudando a que las máquinas sean más inteligentes mediante el etiquetado de fotos, como ocurre cuando los usuarios de Facebook etiquetan a un amigo.
Una competencia anual de reconocimiento de imágenes que duró de 2010 a 2017 atrajo a los mejores investigadores de compañías como Google y Microsoft.
Entre las revelaciones: las computadoras pueden hacer mejor que los humanos al distinguir entre varias razas, en parte porque son más capaces de absorber rápidamente el conocimiento necesario para hacer esas distinciones.
Pero las computadoras se han confundido con formas más abstractas, como las estatuas.
LA "GENTE CODIFICADA"
El creciente uso del reconocimiento de rostros por parte de las fuerzas del orden ha puesto de relieve las preocupaciones de larga data sobre los prejuicios raciales y de género.
Un estudio dirigido por el informático del MIT Joy Buolamwini descubrió que los sistemas de reconocimiento facial construidos por compañías como IBM y Microsoft tenían muchas más probabilidades de identificar erróneamente a las personas de piel más oscura, especialmente a las mujeres. (Buolamwini llamó a este efecto "la mirada codificada".) Tanto Microsoft como IBM anunciaron recientemente esfuerzos para hacer que sus sistemas sean menos sesgados mediante el uso de repositorios de fotos más grandes y diversos para capacitar a su software.