
Ética / Ethics / Éthique / Ética
Filosofía institucional y Objetivo estratégico
La FEV brinda un espacio de conocimiento para contribuir a que se pueda aplicar el marco regulatorio de IA de las Naciones Unidas:
A. Reglas basadas en principios y resultados
1. Crear un marco flexible y adaptable que defina los resultados que deben alcanzarse, en vez de prescribir los detalles de cómo lograrlos.
2. Adoptar un enfoque basado en el riesgo que considere los riesgos y los beneficios de forma holística.
3. Apoyarse en fundamentos legales vinculantes y no vinculantes.
4. Empoderar a las personas mediante mecanismos de transparencia, capacidad de explicación y rectificación.
B. Responsabilidad organizacional demostrable
5. Hacer de la responsabilidad organizacional demostrable un elemento central de las regulaciones sobre IA.
6. Avanzar en la adopción de prácticas responsables de gobernanza de la IA.
7. Asignar la responsabilidad cuidadosamente, centrándose en la parte más estrechamente relacionada con la generación de perjuicio.
C. Supervisión regulatoria inteligente
8. Crear mecanismos de coordinación y cooperación entre organismos regulatorios.
9. Instituir una supervisión regulatoria basada en la cooperación y permitir la innovación regulatoria permanente.
10. Luchar por la interoperabilidad global.

Institutional Philosophy and Strategic Objective
The FEV provides a space of knowledge to contribute to the application of the United Nations AI regulatory framework:
A. Principles-based and outcome-based rules
1. Create a flexible and adaptable framework that defines the outcomes to be achieved, rather than prescribing the details of how to achieve them.
2. Adopt a risk-based approach that considers risks and benefits holistically.
3. Rely on binding and non-binding legal foundations.
4. Empower people through mechanisms of transparency, explainability and rectification.
B. Demonstrable organizational responsibility
5. Make demonstrable organizational responsibility a central element of AI regulations.
6. Advance the adoption of responsible AI governance practices.
7. Assign responsibility carefully, focusing on the part most closely related to causing harm.
C. Smart regulatory oversight
8. Create mechanisms for coordination and cooperation between regulatory bodies.
9. Institute regulatory oversight based on cooperation and allow for ongoing regulatory innovation.
10. Strive for global interoperability.


LA RESPONSABILIDAD HUMANA EN LA IA
THE HUMAN RESPONSIBILITY FOR AI
LA RESPONSABILITÉ HUMAINE POUR L'IA
A RESPONSABILIDADE HUMANA NA IA