Desde que estrenó a finales de 2022, el programa de inteligencia artificial ChatGPT no ha dejado de ser tema de conversación, tanto de quienes admiran este avance tecnológico como de quienes temen sus repercusiones.
Gran parte del debate se ha centrado en los usos que podría
tener este chatbot inteligente, que es capaz de responder casi a cualquier
pregunta de un usuario y de producir textos que parecen escritos por un humano.
¿La utilizarán los estudiantes para que les haga los
deberes? ¿Y los dirigentes para que les escriba los discursos? ¿Podría incluso
escribir este artículo que estás leyendo?
Además de la gran inquietud sobre si dejará este programa
de inteligencia artificial (IA) sin trabajo a millones de personas que hoy
realizan tareas que esta máquina puede realizar en cuestión de segundos, otra
controversia tiene que ver con los derechos de autor.
ChatGPT utiliza información que obtiene principalmente de
internet. Pero en general no cita las fuentes, llevando a acusaciones de plagio
que ya han derivado en denuncias legales.
Pero detrás del ruido que ha generado esta innovación, y el
avance que significa para las tecnologías que usan IA, se esconde otra polémica
que es mucho menos conocida.
Tiene que ver con los cientos de miles de trabajadores,
muchos de bajos ingresos, sin los cuales no existirían sistemas de IA como
ChatGPT.
No hablamos de los programadores que diseñan los
algoritmos, que suelen trabajar en lugares como Sillicon Valley y cobrar buenos
sueldos.
Hablamos de la "fuerza laboral oculta", como la
llamó la asociación sin fines de lucro Partnership on AI (PAI), que agrupa a
organizaciones académicas, de la sociedad civil, de los medios y de la propia
industria involucrados con la IA.
¿Quiénes componen esta fuerza escondida? Personas
subcontratadas por las grandes empresas tecnológicas, en general en países
pobres en el hemisferio Sur, para "entrenar" a los sistemas de IA.
Etiquetadores
Estos hombres y mujeres realizan una tarea tediosa -y
potencialmente dañina para la salud mental, como veremos más adelante- pero que
es esencial para que funcionen programas como ChatGPT.
Consiste en etiquetar millones de datos e imágenes para
enseñarle a la IA cómo actuar.
Tomemos como ejemplo el chatbot que está causando
sensación.
Cuando le preguntas algo a ChatGPT, el programa usa unos
175.000 millones de "parámetros" o variables, para decidir qué
responder.
Como ya mencionamos, este sistema de IA utiliza como fuente
principal información que obtiene de internet. Pero ¿cómo distingue los
contenidos? Gracias a estas referencias, que le son "enseñadas" por
seres humanos.
"No hay nada inteligente de la inteligencia
artificial. Tiene que aprender a medida que se le entrena", explica
Enrique García, cofundador y gerente de DignifAI, una empresa estadounidense
basada en Colombia que se dedica a contratar a estos "anotadores de
datos".
Estos profesionales, más conocidos como "etiquetadores
de datos" (data labelers, en inglés), identifican información, como
textos, imágenes y videos, y le indican al programa qué es qué, para que la
máquina pueda entender qué es cada cosa y aprender en qué contexto usarla.
En la industria tecnológica llaman a este tipo de tarea
"enriquecimiento de datos".
Pero, irónicamente, y a pesar de que se trata de un trabajo
esencial para el desarrollo de la IA, los enriquecedores de datos conforman el
eslabón más pobre en la cadena de producción de las grandes empresas
tecnológicas.
Un hecho que fue reconocido por Partnership on AI.
"A pesar del papel fundamental que desempeñan estos
profesionales de enriquecimiento de datos, un creciente cuerpo de investigación
revela las condiciones laborales precarias que enfrentan estos
trabajadores", señaló el organismo.
"Esto podría ser el resultado de esfuerzos por ocultar
la dependencia de la IA de esta gran fuerza laboral al celebrar las ganancias
de eficiencia logradas por esta tecnología. Fuera de la vista también está
fuera de la mente", denunció la coalición, a la que también forma parte
OpenAI, la empresa que creó el ChatGPT.
Menos de US$2 la hora
Una investigación de la revista TIME reveló que muchos de
los etiquetadores de datos que fueron subcontratados por OpenAI para entrenar a
su ChatGPT recibieron sueldos de entre US$1,32 y US$2 la hora.
Según el reportaje del periodista Billy Perrigo, la
compañía tecnológica, que cuenta entre sus principales inversores a Microsoft,
tercerizó el trabajo de enriquecimiento de datos a través de una empresa de
outsourcing llamada Sama, basada en San Francisco, que contrató a trabajadores
en Kenia para realizar ese proyecto.
A través de un comunicado, un vocero de OpenAI señaló que
esta empresa era la responsable de administrar los sueldos y las condiciones
laborales de los etiquetadores contratados para trabajar en el programa ChatGPT.
"Nuestra misión es garantizar que la inteligencia
artificial general beneficie a toda la humanidad, y trabajamos arduamente para
construir sistemas de IA seguros y útiles que limiten el sesgo y el contenido
dañino", dijo el portavoz.
Sama, que también contrata a etiquetadores en otros países
de bajos ingresos como Uganda e India para clientes como Google y Meta (dueña
de Facebook), se promociona como una "IA ética" y asegura haber
sacado a más de 50.000 personas de la pobreza.
Sin embargo, Martha Dark, directora de la organización
activista británica Foxglove, cuya meta es "hacerle frente a los gigantes
tecnológicos y a los gobiernos, por un futuro en el que la tecnología sea usada
para beneficiar a todos, no solo a los ricos y poderosos", dijo que las
grandes empresas tecnológicas usan el outsourcing para pagarle a estos
trabajadores mucho menos de lo que corresponde.
"Todas estas compañías son empresas multimillonarias y
es francamente inadecuado que le estén pagando 2 dólares la hora a las personas
que hacen posible que estas plataformas existan", señaló.
Pero para Enrique García, de DignifAI, la polémica sobre
los sueldos "es un tema de perspectiva".
En Europa y Estados Unidos se puede entender que ganar eso
sea poco, observa, pero en otros países puede representar un buen sueldo.
"Mucha gente critica a nuestra industria por el tema
de la paga, pero en DignifAI nuestro piso salarial es de US$2,30 la hora, y eso
representa 1,8 veces el sueldo mínimo de Colombia", señala.
"Si el proyecto es más complejo y requiere de
anotadores que sean expertos, por ejemplo, arquitectos o médicos, la paga puede
subir hasta 25 dólares la hora", detalla.
Aunque reconoce que hay algunas empresas que pagan por
debajo del sueldo mínimo, considera injusto poner la lupa solo sobre este
sector.
"Hay dinámicas de outsourcing en muchas industrias, no
solo esta, así que tampoco es justo etiquetarnos a nosotros como los 'digital
sweatshops´ (talleres clandestinos digitales)", dice.
Más allá de la paga, otro tema que genera polémica en torno
a los etiquetadores de datos es el efecto del trabajo sobre su salud mental.
No es lo tedioso de la tarea lo que preocupa a algunos
expertos -aunque es otra crítica que se hace sobre esta labor- sino el material
tóxico al que están expuestos algunos anotadores.
Y es que, parte de la función de estos entrenadores es
enseñarle al programa de IA qué información no es apta para ser publicada.
Para ello, algunos -no fue el caso de Ingrid- deben
adentrarse en los rincones más oscuros de internet y catalogar todo el vasto
caudal de material violento, siniestro y perverso que reside allí, para así
mostrarle a la máquina a ignorar el costado putrefacto de la gran red de redes.
Pero según Martha Dark de Foxglove, realizar este trabajo,
que es vital, "puede causar trastorno de estrés postraumático y otros
problemas de salud mental en muchos trabajadores".
Su organismo representa a un exempleado de Sama que trabajó
como moderador de Facebook en Kenia y en 2022 demandó tanto a Sama como a Meta,
dueña de la red social, por el daño psicológico que sufrió, una causa que se
sigue deliberando en los juzgados de Nairobi.
"Estos trabajos tienen un costo sobre la salud mental
de quienes los hacen y deberían recibir cuidados psiquiátricos adecuados además
de un salario más justo", dijo Dark
Según la activista, las grandes empresas tecnológicas
tienen recursos económicos de sobra para proveer este tipo de asistencia, pero
no lo hacen porque "ponen las ganancias por encima de la seguridad de sus
trabajadores".
Enrique García reconoce que las grandes empresas podrían
invertir más en la contratación de etiquetadores, pero afirma que ponerles
muchas exigencias podría hacer que decidan buscar anotadores en otros lados.
"Puede ser que las grandes tecnológicas podrían pagar
más, pero estamos muy agradecidos por las oportunidades", dice.
"O nos ponemos defensivos sobre lo tacaño del cliente
o aceptamos las oportunidades que hay, que pagan por encima del mínimo
legal", afirma.
"Por lo menos estamos trayendo oportunidades de
generación de ingresos acá donde, sin esta alternativa, no las habría".
Sacado de la BBC