La IA bien podría haber sido nominada Persona del año 2020 por la revista Time debido a la gran atención de los medios, el escrutinio científico en profundidad y los debates normativos y normativos candentes que giraron en torno a las grandes oportunidades y los enormes riesgos que plantea. Sin embargo, en 2021 y más allá, no deberíamos dejar de hablar de IA.
El objetivo de este documento técnico es contribuir a un desarrollo inclusivo de la IA y ayudar a restaurar y fortalecer la confianza entre los responsables políticos y el público. Esto requiere un mayor esfuerzo para comprender los efectos de la IA con mayor claridad y desarrollar algoritmos explicables y responsables. Además, existe la necesidad de marcos de evaluación sólidos que puedan evaluar no solo el desempeño sino también el desempeño y el impacto socioeconómico de la IA.
El documento técnico contiene cinco estudios de casos de uso de IA que han generado preocupación debido a la considerable reacción pública que surgió después de su adopción. Cada uno alimentó un fuerte debate entre políticos, académicos, profesionales y ciudadanos. Todos estos ejemplos provienen de países europeos con otros ejemplos internacionales también incluidos en el documento técnico. El documento técnico examina principalmente casos europeos porque la Unión Europea (UE), buscando limitar los riesgos asociados con la IA, tomó la posición de desarrollar una IA responsable que tenga un propósito ético y solidez técnica. Estos son dos componentes críticos para fomentar la confianza y facilitar la aceptación.
El objetivo de este documento técnico es contribuir a un desarrollo inclusivo de la IA y ayudar a restaurar y fortalecer la confianza entre los responsables políticos y el público. Esto requiere un mayor esfuerzo para comprender los efectos de la IA con mayor claridad y desarrollar algoritmos explicables y responsables. Además, existe la necesidad de marcos de evaluación sólidos que puedan evaluar no solo el desempeño sino también el desempeño y el impacto socioeconómico de la IA.
El documento técnico contiene cinco estudios de casos de uso de IA que han generado preocupación debido a la considerable reacción pública que surgió después de su adopción. Cada uno alimentó un fuerte debate entre políticos, académicos, profesionales y ciudadanos. Todos estos ejemplos provienen de países europeos con otros ejemplos internacionales también incluidos en el documento técnico. El documento técnico examina principalmente casos europeos porque la Unión Europea (UE), buscando limitar los riesgos asociados con la IA, tomó la posición de desarrollar una IA responsable que tenga un propósito ético y solidez técnica. Estos son dos componentes críticos para fomentar la confianza y facilitar la aceptación.
Gobernar “con IA” significa que los humanos aún debemos permanecer en la situación clásica de usar y controlar una tecnología que refuerza nuestra capacidad, a través de un proceso que requiere supervisión humana. Sin embargo, esto requiere de manera crucial una mejor comprensión de los posibles beneficios y riesgos asociados con el uso de la IA en el sector público.