Tomado de rt.com, 16 de septiembre de 2021

El jefe de derechos humanos de la ONU ha pedido una moratoria sobre el uso de alguna tecnología de inteligencia artificial, como el reconocimiento facial masivo, hasta que existan «salvaguardias adecuadas» contra su impacto potencialmente «catastrófico».

En un comunicado el miércoles, la Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet, enfatizó la necesidad de una prohibición total de las aplicaciones de IA que no cumplen con el derecho internacional de derechos humanos, al tiempo que instó a una pausa en las ventas de ciertas tecnologías de interés.

Al señalar que la inteligencia artificial y los algoritmos de aprendizaje automático ahora llegan «a casi todos los rincones de nuestra vida física y mental e incluso a los estados emocionales», Bachelet dijo que la tecnología tiene el potencial de ser «una fuerza para el bien», pero también podría tener «efectos negativos». efectos incluso catastróficos si se utilizan sin tener suficiente en cuenta cómo afectan los derechos humanos de las personas «.

Los sistemas de inteligencia artificial se utilizan para determinar quién obtiene servicios públicos, decidir quién tiene la oportunidad de ser contratado para un trabajo y, por supuesto, afectan la información que las personas ven y pueden compartir en línea.

La advertencia de Bachelet se produjo cuando la Oficina de Derechos Humanos de la ONU publicó un informe que analizaba el impacto de los sistemas de inteligencia artificial, como la elaboración de perfiles, la toma de decisiones automatizada y otras tecnologías de aprendizaje automático, en varios derechos fundamentales, incluida la privacidad, la salud, la educación y la libertad de expresión. y movimiento.

El informe destaca una serie de desarrollos preocupantes, incluido un «ecosistema en expansión de recopilación e intercambio de datos personales en gran parte no transparentes» , así como cómo los sistemas de inteligencia artificial han afectado «los enfoques gubernamentales de la policía», la «administración de justicia» y la «accesibilidad». de los servicios públicos «.

La toma de decisiones impulsada por la inteligencia artificial también podría ser «discriminatoria» si se basa en datos obsoletos o irrelevantes, agregó el informe, que también subraya que la tecnología podría usarse para dictar lo que la gente ve y comparte en la web.

Sin embargo, el informe señaló que la necesidad más urgente es la «orientación en materia de derechos humanos» con respecto a las tecnologías biométricas, que miden y registran características corporales únicas y son capaces de reconocer rostros humanos específicos, ya que « se están convirtiendo cada vez más en una solución de referencia «. para gobiernos, organismos internacionales y empresas de tecnología para una variedad de tareas.

En particular, el informe advierte sobre el uso cada vez mayor de herramientas que intentan «deducir el estado mental y emocional de las personas» mediante el análisis de expresiones faciales y otros «datos biométricos predictivos» para decidir si una persona es una amenaza para la seguridad. Las tecnologías que buscan obtener «conocimientos sobre los patrones de comportamiento humano» y hacer predicciones sobre esa base también plantean «cuestiones serias», dijo el organismo de derechos humanos.

Al señalar que dicha tecnología carecía de una «base científica sólida» y era susceptible de sesgo, el informe advirtió que el uso de «sistemas de reconocimiento de emociones» por parte de las autoridades, por ejemplo, durante paradas policiales, arrestos e interrogatorios, socavaba el derecho de una persona a la privacidad. libertad y un juicio justo.

«El riesgo de discriminación vinculado a las decisiones impulsadas por la inteligencia artificial, decisiones que pueden cambiar, definir o dañar vidas humanas, es demasiado real» , dijo Bachelet, y agregó que el mundo no puede «permitirse el lujo de seguir poniéndose al día» con el rápido desarrollo Tecnología de IA.

Categories:

Los comentarios estan desabilitados