Principios y prácticas para la construcción de una inteligencia artificial más confiable
La inteligencia artificial (IA) está cambiando la
forma en que las empresas operan, desde cómo se comunican con sus clientes a
través de asistentes virtuales, hasta la automatización de flujos de trabajo
clave o la gestión de seguridad de la red. En Latinoamérica, los datos sobre el
uso de la IA son contundentes: el 21% de los profesionales de TI encuestados en
la región señaló que su negocio ahora está utilizando IA, en tanto que el 43%
informó que sus organizaciones han acelerado la implementación de IA como
consecuencia de la pandemia de COVID-19, de acuerdo al estudio AI Adoption
Index, realizado por Morning Consult, a pedido de IBM.
Al mismo tiempo que veo está adopción acelerada en
compañías de diferentes tamaños e industrias, que reconocen el valor de la IA
como clave para abordar diferentes desafíos, cada vez más estas organizaciones
y el mercado en general comienzan a preocuparse sobre cómo se está utilizando
esta tecnología. Hoy esas consideraciones son más importantes que nunca porque
la IA puede tener un impacto significativo en la vida de las personas. Por eso,
las organizaciones y proveedores que emplean la IA tienen la responsabilidad
fundamental de construir sistemas de confiables y garantizar que la tecnología
se diseñe y utilice de forma responsable, en todas las instancias del ciclo de
vida de la IA.
Por esta razón, creemos en una IA ética y confiable.
En ese sentido IBM ha desarrollado principios, pilares y prácticas
multidisciplinares y multidimensionales. Los principios dejan claro que el
propósito de la Inteligencia Artificial es aumentar la inteligencia humana; que
debe beneficiar al conjunto de la sociedad; que los datos e insights
generados pertenecen a su creador; y que nuevas tecnologías poderosas como IA
deben ser transparentes, explicables y mitigar prejuicios dañinos e
inapropiados.
El diseño de estos principios y pilares ha dado
origen a prácticas que ven sus frutos en la integración de mesas de trabajo
para discutir, recomendar y guiar acerca del desarrollo e implementación de la
Inteligencia Artificial. A través de una Junta de Ética de IA que proporciona gobernanza centralizada y
autoridad para la toma de decisiones, se fomenta una cultura de ética
tecnológica en toda la empresa. Es a partir del compromiso con estos principios
que se puede ayudar a evitar que los sesgos, por ejemplo, puedan transmitirse a
las soluciones de IA y nos permiten abordar las necesidades de las empresas
para que puedan avanzar en la implementación de la tecnología con confianza.
Como compañía, buscamos desarrollar soluciones
diseñadas específicamente para ayudar a las empresas no solo a establecer y
ejecutar estrategias de IA, sino también, a fomentar la confianza en sus
sistemas de IA actuales y futuros, y a ponerlos en funcionamiento. Una IA
responsable no es un tema aislado de una u otra empresa: para lograr la IA
confiable se requiere un ecosistema abierto y diverso.
Y lo hacemos trabajando codo a codo con todo el
ecosistema de innovación de América Latina -incluyendo a nuestros clientes,
universidades y organizaciones de la sociedad civil, entre otros- para fomentar
el uso responsable de la tecnología. Trabajamos juntos para garantizar que la
IA sea enriquecida a partir de la pluralidad del ecosistema de datos, de la
variedad de profesionales y de socios diversos que permitan la
retroalimentación y la mejora continua en esta área. Depende de todos los
actores que se asegure el uso ético de las tecnologías a través de un trabajo
conjunto.
La IA tiene
el potencial de transformar la manera en que vivimos y trabajamos, nuestra
responsabilidad es utilizarla siguiendo principios éticos y transparentes para
un futuro de los negocios y una sociedad mejor para todos.
Comentarios
Publicar un comentario
Gracias por tus comentarios, un abrazo.