Etica e Inteligencia Artificial: De las palabras a los hechos
¿Quién debe responder en un accidente de un vehículo que se conduce de manera autónoma? ¿Una persona que elige entre las recomendaciones que le da un sistema está eligiendo libremente? ¿Es ético delegar la decisión de contratar, encarcelar o matar a un sistema? ¿Debe un gobierno vigilar y tomar decisiones sobre una persona con información obtenida sin su conocimiento?
El avance de la Inteligencia Artificial (IA) en años recientes ha sido acompañado por una creciente discusión de las implicaciones éticas de su utilización. Como muestra, en 2019 varias instituciones publicaron propuestas de principios para el desarrollo y despliegue éticos de herramientas de IA y aprendizaje de máquina (ML). Entre estos documentos destacan la Declaración de Montreal promovida por la universidad de dicha ciudad, las Guías Éticas para una IA fiable de la Comisión Europea, los principios recomendados por el consejo de IA de la OCDE, así como la declaración final del taller Robótica, Inteligencia Artificial y Humanidad, organizado por el Vaticano.
Estos documentos de principios se unen a muchos más publicados por empresas y organizaciones, en una tendencia de la que parece nadie quiere quedarse fuera. Son tantos que se publican artículos de investigación para compararlos y hasta existe una página para analizar tópicos y palabras contenidos en ellos.
Imagen publicada en Linking Artificial Intelligence Principles
La imagen de arriba es una nube de palabras de los casi 30 documentos de principios analizados por un proyecto de la Academia China de Ciencias y el Instituto Berggruen de Estados Unidos. Si tomamos las palabras más utilizadas y las separamos en aquéllas relacionadas con las características de la herramienta y las relacionadas con su desarrollo y utilización, nos podemos dar una idea de qué buscamos con estos principios de ética en la IA.
Relacionados con la herramienta |
· Seguridad · Control · Daño |
· Ciberseguridad · Compartido · Protección |
· Explicativo · Transparencia |
Relacionados con su desarrollo y utilización |
· Humanidad · Valores · Sesgo · Derechos · Legalidad · Beneficios |
· Mal Uso · Ético · Dignidad · Justicia · Diversidad · Confianza |
· Responsabilidad · Privacidad · Rendición de cuentas · Autonomía |
En este punto, ante la importancia y alcance de los términos utilizados, bien podemos preguntarnos ¿por qué tanta preocupación por las implicaciones éticas de la utilización de IA? ¿qué la hace diferente a otras tecnologías? En mi opinión, son varios factores los que influyen:
- Las herramientas de IA se aplican en ámbitos con un alto impacto en la vida de las personas. Ya no se trata de recomendar películas o identificar gatos en fotografías, se trata de transportar pasajeros, contratar personal, autorizar créditos o vigilar a la población.
- La delegación de actividades en un sistema para que interactúe con seres humanos y/o tome decisiones con implicaciones legales puede generar incertidumbre sobre quién es responsable y quién debe rendir cuentas ante la ley, como en los accidentes de vehículos autónomos.
- Los algoritmos revelan y reproducen sesgos y prejuicios que pasaban desapercibidos cuando la decisión la tomaba una persona, ya sea porque no era explícito o porque el número de decisiones era menor, como desechar candidatas mujeres porque no se han contratado antes.
- El uso de herramientas de IA amplifica la capacidad de influir en las preferencias de las personas y puede modificar nuestro comportamiento, lo que genera discusiones sobre la forma de mantener la libertad y autonomía de las personas en sus decisiones.
- La cultura de las empresas de tecnología, donde se privilegia el resultado, la velocidad y la toma de riesgos, no es del todo compatible con el desarrollo de herramientas de alto impacto en las personas. Debe parecerse más a la industria farmacéutica que a la de productos electrónicos.
De acuerdo con la nube de palabras que vimos parece que buscamos sistemas de IA seguros, con mecanismos para prevenir daños y tomar el control cuando fallen, protegidos contra los ataques, y que puedan transparentar y explicar sus decisiones. Queremos que sean desarrollados y utilizados en beneficio de la humanidad, sin sesgos, con respeto a la dignidad, autonomía, diversidad, derechos y privacidad de la persona, así como a las leyes, protegidos contra el mal uso y con esquemas de responsabilidad y rendición de cuentas que generen confianza.
Ante este panorama, ¿cómo asegurar el desarrollo y uso ético de las herramientas de IA? Hasta hoy, por desconocimiento y temor a limitar la innovación, se ha venido operando con un enfoque de probar primero y, de ser necesario, regular después. En la medida en que entra en juego la vida, el futuro o la libertad de las personas, este enfoque empieza a generar conflictos y perjudica la confianza en la industria, por eso la discusión tan amplia del tema.
¿Son suficientes todas las declaraciones de principios y pronunciamientos particulares de las empresas? Mi opinión es que no. Esto tomando en cuenta que estas declaraciones reflejan la visión particular de cada empresa en un tema de interés público, además de que no todas las declaraciones contemplan medidas concretas, criterios para documentar y medir el cumplimiento, así como procedimientos de verificación independiente.
En este contexto, los documentos emitidos por la OCDE y la Comisión Europea, así como la Declaración de Montreal y la del taller celebrado en el Vaticano, constituyen un avance importante, pues aportan elementos para que cada país pueda construir un entorno propicio para el desarrollo y uso ético de la IA, con independencia de sus valores y creencias. De la misma forma, sientan las bases para un esfuerzo de creación de reglas internacionales para el desarrollo y despliegue de herramientas fiables de IA, que faciliten su adopción segura y pongan sus beneficios al alcance de un mayor número de personas.
Hablar de ética es tocar un tema intrínsecamente personal, por lo que frecuentemente se descalifica cualquier esfuerzo de establecer principios de conducta de aplicación universal. Sin embargo, el carácter personal del pensamiento ético y las creencias no justifica evitar, ni es obstáculo para alcanzar, acuerdos en un tema como el desarrollo y aplicación de herramientas de IA y ML, que son ya de importancia crítica para nuestra vida futura.
Para reforzar lo anterior, vale la pena citar al Premio Nobel de economía Amartya Sen, que en su libro “La Idea de la Justicia”, en el que construye una teoría de la justicia capaz de absorber distintos puntos de vista, afirma que:
“Para el surgimiento de una comprensión compartida y provechosa de muchas cuestiones sustantivas de derechos y deberes (y también de actos justos e injustos) no hay necesidad de insistir en que tenemos que haber acordado ordenamientos completos o particiones universalmente aceptadas de lo justo…”.