Inteligencia Artificial: Apocalipsis difuso, riesgos tangibles

Inteligencia Artificial: Apocalipsis difuso, riesgos tangibles

Está aún lejana la llegada de una Inteligencia Artificial (IA) consciente de sí misma y capaz de automejorarse; con ella, lejos está también la amenaza que pudiera representar una máquina que supere al ser humano en todos los ámbitos. No obstante, los riesgos y efectos no deseados del uso de la IA y el aprendizaje de máquina (ML) son reales y tangibles, pues las aplicaciones de estas tecnologías se extienden a una velocidad mayor a la que avanza la comprensión de sus implicaciones, o la fijación de reglas para maximizar sus beneficios y mitigar sus riesgos.

Demandas por discriminación en decisiones algorítmicas de todo tipo, accidentes fatales que involucran vehículos autónomos, así como aplicaciones para generar textos, imágenes y videos falsos, dan cuenta de efectos negativos concretos.  Por otro lado, inquieta el uso gubernamental de estas herramientas para aumentar la vigilancia de la población, decidir el otorgamiento de apoyos o establecer sistemas de calificación social. Todo esto, ha llevado al surgimiento de instituciones para estudiar a detalle las implicaciones y levantar la voz sobre los temas de preocupación.

En esta línea, en diciembre de 2019 se publicó el Reporte IA Ahora 2019 sobre las implicaciones sociales y económicas a corto plazo de las tecnologías de IA, uno de los reportes más influyentes.  Es publicado por el Instituto AI Now de la Universidad de Nueva York, un instituto de investigación dedicado a comprender las implicaciones sociales de las tecnologías de IA. Fue fundado en 2017 por Kate Crawford, académica e investigadora de Microsoft, y por Meredith Whittaker, académica, activista e investigadora de Google hasta julio de 2019, cuando renunció por diferencias con la empresa.

AI_Now_2019png

Entre los aspectos más importantes de este año, el informe destaca los siguientes:

  • La propagación de sistemas de IA para el control y gestión de los empleados está aumentando la asimetría de poder entre patrones y trabajadores.
  • La acción de grupos de la sociedad civil, y no las declaraciones y políticas éticas institucionales, han presionado a empresas y gobiernos para establecer barreras al uso dañino de la IA.
  • Se están haciendo esfuerzos para regular los sistemas de IA, pero son rebasados por la adopción por parte del gobierno de estas herramientas para vigilar y controlar.
  • Los sistemas de IA siguen amplificando las disparidades con técnicas como el reconocimiento emocional que, sin una base científica sólida, se implementan en aulas y entrevistas de trabajo.
  • La inversión y desarrollo de la IA tiene efectos en áreas que van desde los derechos de los pacientes y el cambio climático, hasta la geopolítica y la desigualdad entre países.
Por otro lado, el documento menciona la identificación de nuevos temas de preocupación:
  • Automatización privada de la infraestructura pública. La contratación de empresas para implementar sistemas de IA en infraestructura pública genera inquietud sobre conflictos de interés y una privatización inadvertida de espacios públicos y funciones de gobierno.
  • Sesgo incorporado. Las controversias recientes en la industria de IA llaman la atención sobre los problemas de discriminación al interior de las empresas, que reflejan una cultura sesgada que se transmite a los sistemas y algoritmos diseñados.
  • IA y crisis climática. A pesar de anuncios de la industria de medidas para disminuir su impacto ambiental, la ausencia de mecanismos públicos de validación, el uso de modelos que demandan más capacidad de cómputo y la relación con la industria energética generan preocupación.
  • Fundamentos Científicos Defectuosos. Se extiende el uso de sistemas sin un sustento científico sólido, como el reconocimiento emocional, o los intentos de diagnosticar condiciones psicológicas a partir de datos de redes sociales.
  • Salud. Se perciben riesgos en la proliferación de alianzas corporativas con instituciones de salud a fin de compartir datos para entrenar modelos de IA, así como en el énfasis en la predicción de riesgos, que podrían afectar el acceso a la atención médica o estigmatizar a las personas.
  • Prácticas en el desarrollo de ML. Se destaca la necesidad de integrar la visión de las ciencias sociales y las humanidades a la toma de decisiones de diseño de sistemas de IA de alto impacto, así como de mecanismos de protección contra diseños maliciosos o la contaminación de datos.

strike-51212_400jpg

Image by LoggaWiggler from Pixabay

Para enfrentar estos riesgos, el reporte formula doce recomendaciones concretas:

  1. Los reguladores deben prohibir el uso del reconocimiento emocional en decisiones importantes que afectan la vida de las personas y el acceso a las oportunidades.
  2. El gobierno y las empresas deben detener todo uso del reconocimiento facial en contextos sociales y políticos sensibles, hasta que se estudien plenamente los riesgos y se establezcan las reglamentaciones adecuadas.
  3. La industria de la IA necesita hacer cambios estructurales significativos para abordar el racismo sistémico, la misoginia y la falta de diversidad en las empresas.
  4. La investigación de los sesgos de IA debe ir más allá de las correcciones técnicas, para abordar los temas de política pública y las consecuencias del uso de la IA.
  5. Los gobiernos deben exigir la divulgación pública del impacto climático de la industria de la IA, al igual que se hace para las industrias automotriz y aérea.
  6. Los trabajadores deben tener el derecho de impugnar los uso explotadores e invasivos de la IA para la gestión del trabajo, y los sindicatos pueden ayudar.
  7. Los empleados de empresas de tecnología deben tener derecho a saber lo que están construyendo y a impugnar usos poco éticos o dañinos de su trabajo.
  8. Los Estados deben elaborar leyes de privacidad biométrica ampliadas, que regulen tanto a los actores públicos como a los privados, para proteger contra la recopilación y uso no autorizado de datos biométricos y los mercados grises y negros que venden datos.
  9. Los legisladores deben regular la integración de las infraestructuras de vigilancia públicas y privadas. Necesitamos transparencia, rendición de cuentas y supervisión, así como divulgación pública y debate de las asociaciones público-privadas, contratos y adquisiciones.
  10. Las evaluaciones de impacto algorítmico deben incluir el impacto de la IA en el clima, la salud y el desplazamiento geográfico.
  11. Los investigadores de ML deben tener en cuenta los posibles riesgos y perjuicios, así como documentar mejor el origen de sus modelos y datos.
  12. Los legisladores deben requerir el consentimiento informado para el uso de cualquier dato personal en la IA relacionada con la salud.

doors-1690423_400jpg

Image by Arek Socha from Pixabay

Lograr que los avances de la IA y ML se reflejen en una mejor vida para los seres humanos implica estar vigilantes de que, a lo largo del camino, se preserve la dignidad y libertad de las personas y no se generen asimetrías que profundicen la desigualdad. No podemos confiar en que gobiernos y empresas decidirán lo correcto ni podemos pensar que somos ajenos a estos temas, pues la facilidad para implementar las tecnologías y la imagen de modernidad que implica su adopción llevan a que estén ya en uso en muchos países, incluido México.

En este sentido, es esperanzador ver que la acción de la sociedad civil genera cambios de dirección, lo está haciendo en varios lugares del mundo. Por eso en países como el nuestro, donde la adopción de la IA es incipiente, es importante mantenernos informados y provocar la discusión sobre los proyectos que emprendan instituciones públicas y privadas, a fin de forjar un futuro habilitado con IA en el que los seres humanos expandamos nuestras posibilidades de desarrollo personal y laboral.

¿Qué opinas? Comparte tus comentarios abajo. ¿Te gustó este artículo? Lee otros artículos de nuestro blog IF Inteligencia Futura aquí.

Visita nuestras secciones