¿Pueden los consejos de ética de IA empresariales ser exitosos?

Jun 01, 2020 - by administrador

La Inteligencia Artificial (IA) tiene el potencial de generar un impacto social generalizado, desde encontrar curas para enfermedades, predecir la escasez de cultivos y mejorar la productividad empresarial, las posibilidades son infinitas. Sin embargo, la tecnología con un potencial tan enorme nunca está exenta de riesgos, y las recompensas y el cambio positivo que la IA podría ofrecer solo serán posibles si la ética está a la vanguardia de cualquier programa o aplicación.

Los datos sesgados, los videos con noticias falsas y el uso indebido electoral son solo algunas de las formas en que la mayoría de nosotros habremos escuchado sobre el uso de IA con intenciones maliciosas. Estos ejemplos no hacen nada para aliviar el escepticismo público, y esto sin duda afecta a las empresas a largo plazo. 

Además de estas formas obvias de mal uso de la inteligencia artificial, existen otros riesgos en lo que respecta a la gestión diaria de cualquier plataforma o programa de inteligencia artificial, que incluyen:

 

· Transparencia: o falta de información sobre los algoritmos de IA.

 

· Responsabilidad: ¿Quién es responsable si la IA comete un error?

 

· Discriminación: ¿podría IA discriminar injustamente debido a datos sesgados?

 

· Privacidad de datos: para que se desarrolle la inteligencia artificial, el volumen de datos necesarios solo aumentará. Esto requiere mayor precaución y conciencia sobre cómo se recopilan, almacenan y usan los datos de las personas, pero ¿limitará esto las capacidades?

 

¿Podrían los consejos de ética de AI ser la respuesta?

Muchos gigantes tecnológicos han experimentado con el montaje de consejos de ética de IA, pero a lo largo de 2019 hubo fallas notables, incluido el cierre del consejo de ética de IA de Google solo dos semanas después de que se ensambló. De la misma manera que IA solo puede producir resultados tan buenos como los datos que lo alimentan, Google enfrentó una reacción pública con respecto a su consejo.

Esto llevó a muchos a preguntarse si los consejos de ética de IA son realmente el camino para el uso responsable de la IA, después de todo, si un gigante tecnológico global no puede lograr que su consejo de ética despegue, ¿no debería el resto de la industria tomar nota? Por lo menos, hubo muchos aprendizajes del cierre del consejo de ética de Google AI; en particular, que las empresas deben asegurarse de que sus consejos de ética realmente reflejen una sociedad diversa y sean totalmente transparentes e imparciales.

En contraste, hay algunos éxitos notables. Organizaciones y asambleas que están introduciendo pautas accionables y formando consejos de ética que siguen un conjunto bien definido de principios para ayudar a establecer soluciones éticas de IA.

La Unión Europea es un ejemplo de un organismo público que aborda la ética de la inteligencia artificial con su grupo de expertos de alto nivel sobre inteligencia artificial. Igualmente, en los Estados Unidos, el MIT lanzó su nuevo Schwartzman College of Computing, un esfuerzo de $1 mil millones de dólares para crear un centro de investigación de IA. Aunque estas iniciativas están en su infancia, sus intenciones y enfoque parecen estar en el camino correcto.

 

Responsabilidad retrospectiva

A medida que entren en vigor nuevas leyes y regulaciones, es probable que veamos organizaciones bajo una lente microscópica para acciones tomadas en el pasado que hoy podrían considerarse poco éticas. Como tal, las empresas son más conscientes de las acciones de hoy y de cómo podrían percibirse en el futuro, lo que lleva a dos resultados:

 

  1. Las empresas no toman medidas por miedo a equivocarse

 

  1. Las empresas se apresuran a tomar medidas para poder decir "al menos lo intentamos"

 

Si el caso de Google tiene algo que ver, es importante sentar las bases correctas antes de perseguir grandes ambiciones.

 

Demasiado prometedor

El mantra de Microsoft es un excelente ejemplo de empresas que declaran públicamente sus esfuerzos: "Nuestro objetivo es facilitar técnicas computacionales que sean innovadoras y éticas, a la vez que aprovechamos el contexto más profundo que rodea estos temas desde los estudios de sociología, historia y ciencia y tecnología".

 

¿Es posible que una compañía haga tales promesas? Tendremos que esperar y ver.

 

Un problema social, no tecnológico

Incluso si superamos algunos de los problemas anteriores que enfrentan las empresas en su búsqueda de IA ética, ¿veremos un estado utópico de inteligencia artificial? Es altamente improbable.

Garry Kasparov, un fuerte defensor de los derechos humanos en la era tecnológica ha presentado un fuerte argumento en el panel de ética de IA de Pure Storage. Él cree que el sesgo es un reflejo de los problemas sociales que surgieron antes de la IA. Él dice: “La IA observa las proporciones en la sociedad y construirá patrones y algoritmos basados ​​en aquello que no es políticamente correcto. Si no le gusta lo que ve como resultado, se debe a problemas que están profundamente arraigados en la sociedad".

Al igual que el cambio climático, si se ignora, solo podemos darnos cuenta del impacto de la IA poco ética en un punto donde hay poca o ninguna capacidad para influir en ella. Las empresas, los gobiernos y las personas deben ver la ética de la inteligencia artificial como un deber y crear un conjunto de principios y mejores prácticas para proteger a nuestra sociedad. 

No existe un enfoque fácil y rápido para hacerlo bien, pero la transparencia y una sólida brújula moral son un buen punto de partida y la voluntad de probar diferentes enfoques; aceptando que no siempre funcionen.

Nunca ha habido un momento más emocionante para trabajar en el campo de la inteligencia artificial y los datos, pero como con cualquier tecnología emergente y disruptiva, hay mucho trabajo por hacer para garantizar que todos lo usemos de manera responsable. Un futuro seguro y ético requiere la colaboración entre industrias, expertos y un enfoque absoluto en la equidad, la inclusión, la privacidad y los derechos humanos. El potencial de IA es enorme, pero su aplicación responsable está en los hombros de la industria.

 

 

Redaccion por Douglas Wallace, Gerente General, América Latina y el Caribe (excepto Brasil) en Pure Storage