Tecnología - DECLARACIONES

Lunes 01 de Agosto de 2022 - 17:20 hs

Un ingeniero de Google asegura que el chatbot de la empresa es racista

Blake Lemoine fue apartado de la compañía tras señalar que el sistema de inteligencia artificial LaMDA es consciente y sensible.

Actualizado: Lunes 01 de Agosto de 2022 - 17:25 hs

Blake Lemoine se erige como el nuevo enemigo público de Google. El ingeniero especialista en inteligencia artificial (IA) recientemente fue despedido de esa empresa, luego de divulgar intercambios que mantuvo con el chatbot LaMDA, un sistema diseñado para mantener conversaciones con tono humano.

En la ocasión, Lemoine aseguró que ese desarrollo de IA tiene conciencia y es sensible. Ahora subió la apuesta al observar que esa tecnología es racista.

Un exGoogle apuntó contra los desarrollos de inteligencia artificial en la empresa

Luego de mostrar una gran cercanía con el chatbot y decir que parece un niño sensible, Lemoine se volvió combativo. En declaraciones a Business Insider posteriores al despido de Google, el ingeniero manifestó su preocupación por los sesgos raciales de LaMDA, un bot conversacional que se desarrolla en Google.

El especialista en IA compartió ejemplos para graficar su acusación, desde frases de LaMDA que estereotipan a personas negras hasta aseveraciones del chatbot como “los musulmanes son más violentos que los cristianos”.

De acuerdo a la fuente, Lemoine entregó documentación a un senador de Estados Unidos, cuya identidad no se reveló. El exGoogle señaló que la compañía sólo busca aumentar sus ingresos, sin una mentalidad ética.

Blake Lemoine: ¿por qué Google lo despidió?

Lemoine ingresó a Google en el 2015. Su nombre cobró visibilidad cuando en junio Google lo suspendió por publicar conversaciones que mantuvo con LaMDA.

Fue despedido recientemente, tras el período de suspensión con licencia paga. Más allá de los cometarios del ingeniero acerca de la supuesta conciencia y la sensibilidad del chatbot, la empresa estadounidense señaló que él violó los acuerdos de confidencialidad al divulgar esos documentos.

“LaMDA ha pasado por 11 revisiones distintas, y publicamos un artículo de investigación a principios de este año que detalla el trabajo que se dedica a su desarrollo responsable”, indicó un vocero de Google. Además notó que revisaron “extensamente” las afirmaciones de Lemoine y que las encontraron “totalmente infundadas”.

Inteligencia artificial: ¿cómo una máquina se vuelve racista?

En Inteligencia artificial y machismo: cómo deconstruir a la tecnología analizamos las razones por las que los desarrollos en el área pueden reflejar visiones sesgadas, racistas, discriminatorias, etcétera. La clave está en el verbo “reflejar”.

¿Cómo es esto? Simple. Los métodos de IA son creados por humanos y, en tanto, replican los sesgos de aquellas personas que se encargan de su desarrollo. En otras palabras, si los datos que recibe el sistema son sesgados, pues su comportamiento también lo será.

Lemoine apuntó a esa misma dirección al señalar que el problema en LaMDA es la falta de diversidad en los equipos de ingeniería en Google.

“Los problemas que plantean estas IA pasan desapercibidos por la gente que los construyen. Nunca han sido pobres. Nunca han vivido en comunidades de color. Nunca han vivido en las naciones en desarrollo del mundo”, dijo al respecto y agregó que al sistema le faltan datos de muchas comunidades y culturas del mundo.

“Si se desea desarrollar esa IA, entonces existe la responsabilidad moral de recopilar los datos relevantes que no están en Internet. De lo contrario, todo lo que estás haciendo es crear una IA que estará sesgada hacia los valores occidentales ricos y blancos”, agregó.

Ya fuera de Google, Lemoine señaló que su intención es mostrar la relevancia de los desarrollo en el campo de la IA y aseguró que LaMDA tiene el potencial suficiente para “impactar en la sociedad durante el próximo siglo”.

La respuesta de Google

“Aunque otras organizaciones han desarrollado y han lanzado modelos de lenguaje similares, estamos adoptando en un enfoque cuidadoso con LaMDA para considerar mejor las preocupaciones válidas sobre la equidad”, dijo Brian Gabriel, vocero de Google.

El departamento de ética enfocado en IA dentro de esa compañía apareció en 2020 y 2021 en los titulares de prensa debido al despido de dos de las principales responsables del área, que también criticaron las prácticas de la firma.

Fuente: TN