Tech507 - 04/7/18 - 01:30 PM
¿Cuánta vigilancia de AI es demasiado?
Los avances recientes en la visión artificial de la inteligencia artificial han acelerado la carrera de los autos sin conductor y han impulsado las funciones de etiquetado de fotos cada vez más sofisticadas que se encuentran en Facebook y Google.
Cuando un fondo de capital de riesgo respaldado por la CIA se interesó por la tecnología de escaneo facial de Rana el Kaliouby para detectar emociones, el científico informático y sus colegas investigaron profundamente y luego rechazaron el dinero.
"No nos interesan las aplicaciones en las que se está espiando a la gente", dijo el Kaliouby, CEO y cofundador de la startup Affectiva de Boston. La compañía ha entrenado sus sistemas de inteligencia artificial para reconocer si las personas están felices o tristes, cansadas o enojadas, usando un repositorio fotográfico de más de 6 millones de caras.
Los avances recientes en la visión artificial de la inteligencia artificial han acelerado la carrera de los autos sin conductor y han impulsado las funciones de etiquetado de fotos cada vez más sofisticadas que se encuentran en Facebook y Google. Pero a medida que estos extraños "ojos" de inteligencia artificial encuentran nuevas aplicaciones en las líneas de cajas, cámaras corporales y zonas de guerra, las compañías tecnológicas que las desarrollan están luchando por equilibrar las oportunidades comerciales con decisiones morales difíciles que podrían desanimar a los clientes o sus propios trabajadores.
El Kaliouby dijo que no es difícil imaginar el uso de reconocimiento facial en tiempo real para detectar la deshonestidad o, en manos de un régimen autoritario, monitorear la reacción al discurso político para erradicar la disidencia. Pero la pequeña empresa, que se separó de un laboratorio de investigación de MIT, ha establecido límites sobre lo que hará.
La compañía ha evitado "cualquier cosa de seguridad, aeropuerto, incluso detección de mentiras", dijo el Kaliouby. En cambio, Affectiva se ha asociado con los fabricantes de automóviles que intentan ayudar a los conductores cansados a mantenerse despiertos, y con las marcas de consumo que desean saber si las personas responden a un producto con alegría o disgusto.
Tal mareo refleja nuevos reparos sobre las capacidades y los posibles abusos de ver todo, siempre mirando los sistemas de cámaras de IA, incluso cuando las autoridades están cada vez más ansiosas por usarlas.
Inmediatamente después del mortal tiroteo del jueves en un periódico en Annapolis, Maryland, la policía dijo que se volvieron para recibir reconocimiento para identificar al sospechoso que no cooperaba. Lo hicieron tocando en una base de datos del estado que incluye fotografías de personas arrestadas en el pasado y, más polémicamente, todas las que se registraron para obtener una licencia de conducir de Maryland.
LEE TAMBIÉN: Apple prepara su gran asalto a la televisión
La información inicial entregada a las autoridades policiales dijo que la policía había recurrido al reconocimiento facial porque el sospechoso había dañado sus huellas dactilares en un aparente intento de evitar la identificación. Ese informe resultó ser incorrecto y la policía dijo que usaron el reconocimiento facial debido a retrasos en la identificación de las huellas dactilares.
En junio, el Aeropuerto Internacional de Orlando anunció planes para requerir escaneos de identificación facial de los pasajeros en todos los vuelos internacionales que lleguen y salgan antes de fin de año. Varios otros aeropuertos de los Estados Unidos ya han estado utilizando esos escaneos para algunos, pero no todos, los vuelos internacionales que parten.
Las empresas y los municipios chinos ya están utilizando cámaras inteligentes para avergonzar a los jaywalkers en tiempo real y vigilar a las minorías étnicas, sometiendo a algunos a detención y adoctrinamiento político. Más cerca de casa, las cámaras y los sensores de la nueva tienda sin caja de Amazon en Seattle apuntan a hacer que el hurto sea obsoleto al rastrear cada artículo que los compradores recogen y vuelven a poner.
Las preocupaciones sobre la tecnología pueden sacudir incluso a las firmas tecnológicas más grandes. Google, por ejemplo, dijo recientemente que saldrá de un contrato de defensa después de que los empleados protestaron por la aplicación militar de la tecnología de IA de la compañía. El trabajo incluyó el análisis por computadora de imágenes de video de drones de Irak y otras zonas de conflicto.
Preocupaciones similares sobre los contratos del gobierno han provocado la discordia interna en Amazon y Microsoft. Desde entonces, Google publicó guías de AI que enfatizan usos que son "socialmente beneficiosos" y que evitan el "sesgo injusto".
Amazon, sin embargo, hasta ahora ha desviado la creciente presión de los empleados y defensores de la privacidad para detener Rekognition, una poderosa herramienta de reconocimiento facial que vende a los departamentos de policía y otras agencias gubernamentales.
Decir no a algún trabajo, por supuesto, generalmente significa que alguien más lo hará. El proyecto de metraje de drones involucrando a Google, apodado Project Maven, apuntaba a acelerar el trabajo de buscar "patrones de vida, cosas que son sospechosas, indicios de posibles ataques", dijo Robert Work, un ex alto funcionario del Pentágono que lanzó el proyecto en 2017.
Aunque duele perder Google porque son "muy, muy buenos en eso", dijo Work, otras compañías continuarán esos esfuerzos.
LEE TAMBIÉN: Tecnología de mapa facial permite hacer que otros digan lo que nunca han dicho
El interés comercial y gubernamental en la visión por computadora se ha disparado desde los avances a principios de esta década usando una "red neuronal" parecida al cerebro para reconocer objetos en imágenes. La capacitación de computadoras para identificar gatos en los videos de YouTube fue un desafío temprano en 2012. Ahora, Google tiene una aplicación para teléfonos inteligentes que le puede decir qué raza.
Una importante reunión de investigación, la Conferencia anual sobre visión artificial y reconocimiento de patrones, realizada en Salt Lake City en junio, se transformó de una reunión académica adormecida de "gente nerd" a una exposición comercial de fiebre del oro que atrae a grandes empresas y agencias gubernamentales, dijo Michael Brown, científico informático de la Universidad de York de Toronto y organizador de conferencias.
Brown dijo que a los investigadores se les han ofrecido empleos bien remunerados en el acto. Pero pocos de los miles de documentos técnicos presentados a la reunión abordan las preocupaciones públicas más amplias sobre la privacidad, los prejuicios u otros dilemas éticos. "Probablemente no estamos teniendo tanto debate como deberíamos", dijo.
Las startups están forjando sus propios caminos. Brian Brackeen, CEO de Kairos, empresa de software de reconocimiento facial con sede en Miami, ha establecido una política general contra la venta de la tecnología a la policía o para la vigilancia gubernamental, argumentando en un ensayo reciente que "abre la puerta a la mala conducta de los moralmente corruptos" "
La startup Neurala, con sede en Boston, por el contrario, está creando un software para Motorola que ayudará a las cámaras corporales desgastadas por la policía a encontrar a una persona en una multitud en función de lo que llevan puesto y de su aspecto. El CEO Max Versace dijo que "AI es un espejo de la sociedad", por lo que la compañía solo elige socios con principios.
"No somos parte de ese esquema totalitario y orwelliano", dijo.