Want to make creations as awesome as this one?

More creations to inspire you

Transcript

PRINCIPALES IMPLICACIONES IA

Verdad, desinformación y propaganda

Esta implicación tiene que ver con los avances tecnológicos en manos equivocadas que permiten la posibilidad de crear pruebas, noticias o información falsas. Es posible situar a personas en lugares diferentes, crear nuevos rostros e incluso usar la voz para crear discursos nunca antes dichos. En este sentido, la libertad de expresión podría verse profundamente afectado por la IA. La IA ha sido ampliamente promocionada por las empresas tecnológicas como una solución a problemas como el discurso de odio, el extremismo violento y la desinformación digital. A manera de ejemplo, en la India, las herramientas de análisis de sentimientos se despliegan cada vez más para calibrar el tono y la naturaleza del discurso en línea, y a menudo se entrenan para llevar a cabo la eliminación automática de contenido, tal y cómo se está promoviendo en Chile. La eliminación automatizada de contenidos entraña el riesgo de censurar el discurso legítimo; este riesgo se acentúa por el hecho de que lo realizan empresas privadas, que a veces actúan siguiendo instrucciones del gobierno. Así, la IA está llevando las posibilidades de crear pruebas a una dimensión totalmente nueva.

  • Face2Face: sistema capaz de identificar las expresiones faciales de una persona y colocarlas en la cara de otra persona en un vídeo.
  • Perfilamiento y categorización.
  • Burbujas epistémicas.
  • Deep fakes y fake news.

SESGOS ALGORÍTMICOS

Este concepto le apunta a la incorporación de una tendencia a discriminar en función de factores como el origen étnico, el género, la condición socio-económica entre otros factores que se usan o son determinantes para tomar decisiones sobre solicitudes de empleo, préstamos bancarios, recursos sociales, etc. La IA es creada por humanos, lo que significa que puede ser susceptible de sesgos. El sesgo sistemático puede surgir como resultado de los datos utilizados para entrenar los sistemas, o como resultado de los valores que tienen los desarrolladores y usuarios del sistema. Ocurre con mayor frecuencia cuando las aplicaciones de aprendizaje automático se entrenan con datos que sólo reflejan ciertos grupos demográficos (usar sólo datos de Bogotá para replicar el modelo en Quito), o que reflejan prejuicios sociales. Varios casos han recibido atención por promover un sesgo social involuntario, que luego ha sido reproducido o reforzado automáticamente por los sistemas de IA. Los investigadores han descubierto que las herramientas de distribución de anuncios automatizados tienen más probabilidades de distribuir anuncios de puestos de trabajo bien remunerados a los hombres que a las mujeres. La contratación informada por la IA es susceptible de sesgo; se descubrió que una herramienta de autoaprendizaje de Amazon utilizada para juzgar a los solicitantes de empleo favorecía significativamente a los hombres, clasificándolos en primer lugar. El sistema había aprendido a dar prioridad a las solicitudes que enfatizaban las características masculinas, y a rebajar las solicitudes de las universidades con una fuerte presencia femenina. Muchas bases de datos de imágenes populares contienen imágenes recogidas de solo unos pocos países (Estados Unidos, Reino Unido, el norte global), lo que puede provocar sesgos en los resultados de la búsqueda. Así, cuando las aplicaciones se programan con este tipo de sesgo, pueden producirse situaciones como que una cámara avise automáticamente a un fotógrafo de que su sujeto tiene los ojos cerrados cuando toma una foto de una persona asiática, ya que la cámara ha sido entrenada en apariencias estereotipadas, masculinas y de piel clara. El principal, pero no el único, motivo del sesgo algorítmico es el sesgo humano en los datos. En este factor se pueden dar situaciones como:

  • Discriminación por sexo, etnia o edad. (Casos como COMPAS, Youth Laboratories)
  • Litigios, pérdidas financieras y riesgos reputacionales. (Casos como Tay Bot y Tyndaris)

Estado y sociedad

El uso acelerado de herramientas y sistemas de IA, puede hacer que la relación entre Estado y Sociedad se quebrante debido al uso indiscriminado de estas herramientas para:

  • La facilitación y automatización de tareas o diligencias entre ciudadano y estado.
  • Las afectaciones a la seguridad nacional.
  • La inestabilidad financiera y política.
  • La vigilancia masiva
En la actualidad, cientos de dispositivos domésticos conectados, incluidos los electrodomésticos y los televisores, recopilan regularmente datos que pueden utilizarse como pruebas o a los que pueden acceder los piratas informáticos. El vídeo puede utilizarse para una serie de fines excesivamente intrusivos, como detectar o caracterizar las emociones de una persona. La IA también puede utilizarse para vigilar y predecir a posibles alborotadores. Se afirma que las capacidades de reconocimiento facial se utilizan en China, no solo para identificar a las personas, sino para identificar sus estados de ánimo y de atención tanto en los campos de reeducación como en las escuelas ordinarias. Es posible, que dicha tecnología pueda ser utilizada para penalizar a los estudiantes por no prestar atención o penalizar a los prisioneros que no parecen felices de cumplir con su (re)educación. Así, existe el riesgo de que los gobiernos que temen la disidencia utilicen la IA para reprimir, encarcelar y perjudicar a las personas.

USO Y MONETIZACIÓN DE DATOS PERSONALES

La tecnología se encuentra ahora en una etapa en la que se pueden mantener registros a largo plazo de cualquier persona que produzca datos almacenables: cualquier persona con facturas, contratos, dispositivos digitales o un historial de crédito, por no mencionar cualquier escritura pública y uso de los medios sociales. Los registros digitales pueden buscarse mediante algoritmos de reconocimiento de patrones, lo que significa que hemos perdido la suposición por defecto del anonimato por oscuridad. Cualquiera de nosotros puede ser identificado por un software de reconocimiento facial o por la extracción de datos de nuestros hábitos de compra o de las redes sociales. Estos hábitos online pueden indicar no solo nuestra identidad, sino nuestras predisposiciones políticas o económicas, y qué estrategias podrían ser eficaces para cambiarlas. El aprendizaje automático nos permite extraer información de los datos y descubrir nuevos patrones, y es capaz de convertir datos aparentemente inocuos en datos sensibles y personales. Esto tiene importantes repercusiones para la privacidad y el anonimato, tanto en línea como fuera de ella. Las aplicaciones de IA basadas en el aprendizaje automático necesitan acceder a grandes cantidades de datos, pero los sujetos de los datos tienen derechos limitados sobre cómo se utilizan sus datos y a quiénes son vendidos o monetizados. Todo lo anterior, plantea una serie de cuestiones éticas, como:

  • ¿Qué nivel de control tendrán los sujetos sobre los datos que se recogen sobre ellos?
  • ¿Deben los individuos tener derecho a utilizar el modelo, o al menos a saber para qué se utiliza, dado su interés en la formación del mismo?
  • ¿Podrían los sistemas de aprendizaje automático que buscan patrones en los datos violar inadvertidamente la privacidad de las personas si, por ejemplo, la secuenciación del genoma de un miembro de la familia revelara información sobre la salud de otros miembros de la familia?
  • ¿Cómo evitar que se descubra la identidad, o la información personal, de un individuo involucrado en el entrenamiento de un modelo?

pÉRDIDA DE CONFIANZA EN DECISIONES AUTOMATIZADAS

La creciente delegación de la toma de decisiones en la IA o la asistencia de la IA en el proceso de toma de decisiones también afecta derechos sociales y humanos en términos por ejemplo de su responsabilidad o de la rendición de cuentas. Esto significa que los agentes, artificiales o no, podrían realizar potencialmente actos u omisiones delictivos sin satisfacer las condiciones de responsabilidad para ese delito concreto. Sin embargo, en algunos casos, la complejidad de la programación del agente autónomo podría hacer que el diseñador, el desarrollador o el desplegador no supiera ni pudiera predecir la acción u omisión delictiva de la IA. Esto supone un gran incentivo para que los agentes humanos eviten averiguar qué hace precisamente el sistema de aprendizaje automático, ya que cuanto menos sepan los agentes humanos, más podrán negar su responsabilidad por estos dos motivos. Todo lo anterior puede dar como resultado:

  • Riesgos y violaciones a la integridad física.
  • Decisiones injustas e inequitativas.
  • Litigios, pérdidas financieras y riesgos reputacionales.

acceso desigual a la tecnología

A escala mundial, la brecha de desigualdad entre las naciones desarrolladas y las que están en vías de desarrollo es significativa. Aunque la IA puede tener una utilidad considerable en un sentido humanitario, no debe ampliar esta brecha ni exacerbar la pobreza, el analfabetismo, la desigualdad de género y étnica, ni alterar desproporcionadamente el empleo y el trabajo. Así, se sugiere que se tomen medidas y se invierta en mitigar la brecha de la desigualdad; que se integre la responsabilidad social corporativa (RSC) en el desarrollo y la comercialización; que se desarrollen estructuras de poder transparentes; que se facilite y se comparta el conocimiento y la investigación sobre robótica e IA. La tecnología de IA debería estar disponible por igual en todo el mundo a través de la estandarización global y el software de código abierto, y debería celebrarse un debate interdisciplinario sobre la educación y la formación efectivas en materia de IA. Así, la tecnología podría usarse como instrumento de exclusión por inaccesibilidad a recursos necesarios.