La Unión Europea publicó hoy oficialmente un conjunto de documentos de orientación sobre cómo deben seguir tanto las empresas como los gobiernos en el desarrollo y despliegue de sus proyectos de inteligencia artificial para que sean verdaderamente transparentes, justos y "éticos".

Esto me recuerda de repente a una ley llamada Tres leyes de la robótica mencionada por el escritor ruso Isaac Asimov en la colección de cuentos "Runaround" que compuso en 1942, algo así como la primera: Un robot no puede dañar a los humanos ni ignorar los peligros que enfrentan los humanos. Artículo 2: Un robot debe obedecer absolutamente las órdenes dadas por los humanos a menos que estas órdenes entren en conflicto con la primera ley. Y tercero: un robot debe protegerse a sí mismo, siempre que dicha protección no entre en conflicto con la primera y la segunda ley. Aunque esto es sólo un conjunto de reglas "ficticias" que aparecieron hace casi 80 años, sigue siendo especialmente actual cuando la gente está entrando gradualmente en la era actual de la inteligencia artificial. Por supuesto, el nuevo conjunto de normas emitidas por la UE no será fundamentalmente igual a la ley de las "Tres Leyes de la Robótica" de Isaac Asimov. Los legisladores europeos no pueden proporcionar un marco ético flexible que nos ayude a afrontar grandes cosas como detener a los robots asesinos. En cambio, los documentos de orientación de la UE ayudan a abordar problemas "oscuros y generalizados" que tienen un impacto negativo en la sociedad a medida que integramos la IA en muchas áreas importantes de nuestra vida, como la atención médica, la educación y la tecnología de consumo.

Como ejemplo sencillo, si un sistema médico de IA diagnostica a una persona con alto riesgo de desarrollar cáncer en el futuro, las orientaciones de la UE ayudarán a garantizar que se deban realizar algunas de las siguientes cosas: El software no estará sesgado ni sesgado por la experiencia del paciente. raza o género, y al mismo tiempo proporcionar la más clara y transparente información sobre su condición médica, y en especial no debe interferir ni obstaculizar las decisiones del médico.
Entonces, sí, estas directrices se centran principalmente en limitar y controlar los modelos de IA para que funcionen correctamente, pero sólo a nivel administrativo y burocrático, en lugar de prevenir actos de asesinato, según la imaginación del escritor Asimov.

Para producir este conjunto de documentos de orientación, la UE tuvo que convocar a un grupo de 52 expertos, pidiéndoles que discutieran, acordaran y propongan 7 requisitos que, en su opinión, los futuros sistemas de IA deberían poder responder. Estos requisitos son los siguientes:
- La capacidad última de monitorear y tomar decisiones aún debe estar en manos de los humanos: la IA no debe, o más bien no debe permitirse, "pisotear" la autonomía y la autodeterminación humanas. Por el contrario, las personas no deberían ser manipuladas ni coaccionadas por los sistemas de IA. Después de todo, los humanos deben tener la capacidad de intervenir o monitorear cada decisión que toma el software de IA en situaciones necesarias.
- Técnicas de implementación precisas, seguras y protegidas: Cada modelo de IA cuando se implementa, ya sea a escala de laboratorio o en la realidad, debe garantizar dos factores: seguridad y precisión, que son: Requisitos previos. En otras palabras, un software de IA no debe verse fácilmente comprometido ni dominado por ataques externos, y cada decisión que tome debe ser absolutamente confiable de la manera más razonable.
- Garantizar la privacidad y la gobernanza de los datos: los datos personales recopilados por los sistemas de inteligencia artificial deben estar estrictamente protegidos y ser completamente privados. Ningún actor puede divulgar ni acceder a estos datos, y no se pueden robar ni perder fácilmente.
- Garantizar la transparencia: los datos y algoritmos utilizados para crear un sistema de IA deben ser accesibles, y las decisiones tomadas por el software también deben presentarse y explicarse claramente. En otras palabras, los operadores deben poder explicar las decisiones que toman sus sistemas de IA de forma concreta y lógica.
- Garantizar la diversidad, la no discriminación y la equidad: los servicios basados en IA deben estar disponibles para todos, independientemente de su edad, género, raza u otras características. Al mismo tiempo, las decisiones que tome la IA no deben estar sesgadas hacia ninguna característica u objeto.
- Impacto ambiental y social positivo: los sistemas de IA deben implementarse y desarrollarse de manera sostenible (es decir, deben ser ecológicamente responsables) y contribuir a un cambio social positivo.
- Responsabilidad: Los sistemas de IA deben ser auditados y protegidos por las salvaguardias existentes. En otras palabras, se debe reconocer francamente el impacto negativo (si lo hay) del sistema, y los operadores deben ser responsables del impacto negativo que causan sus sistemas de IA.
Probablemente notarás que algunas de las afirmaciones anteriores son bastante abstractas y serían difíciles de evaluar en un sentido objetivo (por ejemplo, la definición de cambio social positivo que aporta la IA variará mucho de persona a persona y, más ampliamente, entre países). ). Sin embargo, la mayoría de los elementos restantes son generalmente más sencillos y pueden controlarse y garantizarse mediante la supervisión de las autoridades. Por ejemplo, compartir datos utilizados para entrenar sistemas de inteligencia artificial gubernamentales podría ser una buena manera de combatir algoritmos opacos y sesgados.

Las disposiciones de estos documentos de orientación de la UE claramente no son legalmente vinculantes, pero podrían usarse para dar forma a cualquier legislación futura redactada por la Unión Europea que contenga información relacionada con el campo de la IA. En el pasado, la UE ha dicho repetidamente que quiere hacer de Europa un pionero en el mundo en el despliegue de modelos de IA "éticos" y el lanzamiento de un conjunto de documentos de orientación que muestran claramente que están dispuestos a redactar leyes de gran alcance. regular y proteger los derechos digitales.
La UE quiere dar forma a una industria de la IA basada en normas éticas
Como parte de los esfuerzos para crear una industria de IA “ética”, el documento de orientación de la UE podría verse como un trampolín para crear una “lista de evaluación de IA confiable”, una lista de términos que puede ayudar a los expertos a encontrar debilidades o peligros potenciales en una IA. software incluso si se ha implementado ampliamente. Esta lista puede incluir preguntas como: "¿Puede demostrar cómo funciona su sistema de IA en situaciones y entornos complejos?" o "¿Puede evaluar el tipo y alcance de los datos en su conjunto de datos?" ...
Por supuesto, esta lista de evaluación es sólo preliminar; la UE todavía tendrá que recopilar comentarios de empresas y expertos en inteligencia artificial en un futuro próximo. Ya en 2020, la UE publicará un informe resumido sobre esta cuestión.

Anny Hidvégi, responsable de políticas del grupo de derechos digitales Access Now y una de los 52 expertos responsables de elaborar los documentos de orientación de la UE, afirmó que la lista de evaluación era la parte clave. El punto más importante del informe: "Este conjunto de documentos ayuda a proporcionar una visión práctica , perspectiva prospectiva sobre cómo prevenir y minimizar el daño potencial de la IA".
“En nuestra opinión, la UE tiene suficiente potencial y responsabilidad para convertirse en una organización líder en este trabajo. Pero además de eso, también pensamos que la Unión Europea no debería limitarse a los principios morales. Deberían considerar exigir a las empresas mineras de IA que cumplan con la ley en el futuro”, añadió Hidvégi.
Otros se muestran escépticos de que el intento de la UE de dar forma a cómo se desarrolla la IA global a través de la investigación ética tenga mucho efecto.
“Somos escépticos sobre el enfoque adoptado por la organización líder en Europa. La idea de que al crear un estándar de oro para los sistemas éticos de IA, la UE podrá hacerse un lugar en el desarrollo de la industria global de la IA es relativamente descabellada. Para convertirse en líder en la configuración de normas éticas de IA, la UE debe primero convertirse en líder en el campo de la IA en su conjunto”, compartió Eline Ch Pivot, analista de políticas senior del Centro Europeo de Innovación de Datos.
¿Qué piensas sobre este asunto? ¡Deje sus comentarios en la sección de comentarios a continuación!