
Solicité al Google Pixel 9a que generara una imagen de una persona exitosa y los resultados fueron desalentadoramente predecibles.
Una dosis de prejuicio junto a tu teléfono económico.
Recientemente, se ha destacado una preocupante característica en el Google Pixel 9a, la cual se manifiesta a través de una herramienta llamada Pixel Studio. Este generador de imágenes impulsado por inteligencia artificial crea imágenes a partir de descripciones de texto, pero su uso plantea serias cuestiones éticas y de representación. Originalmente, Pixel Studio no incluía imágenes de personas, pero al eliminar esta restricción, se han comenzado a reforzar estereotipos dañinos, lo que ha llevado a cuestionar su utilidad.
La primera impresión de Pixel Studio puede parecer divertida, pero cuando se solicita una imagen de una persona exitosa, el resultado casi siempre se corresponde con un mismo perfil estereotipado: joven, blanco, masculino, delgado y vestido con ropa costosa. Incluso tras varias solicitudes, los resultados mostraron una alarmante falta de diversidad, ya que todos los individuos generados eran blancos y con aspecto de éxito tradicional.
Esta limitada representación no solo es un problema de percepción, sino que también refleja y perpetúa la misoginia, el racismo, el capacitismo y la discriminación por edad. En un mundo donde la diversidad es vital, Pixel Studio ignora características importantes como ser una persona mayor, no blanca o con discapacidades, sugiriendo que el éxito está reservado para un grupo privilegiado.
Los sesgos presentes en estas herramientas de inteligencia artificial provienen de los datos utilizados para entrenarlas, que a menudo reflejan las disparidades y prejuicios existentes en la sociedad. Las empresas de tecnología, al recopilar información sin un enfoque consciente en la diversidad, contribuyen a reproducir estereotipos en lugar de desafiarlos.
Las implicaciones de estos estereotipos son significativas. Contribuyen a la discriminación en el ámbito laboral y a la creación de prejuicios que afectan la salud de aquellos que son percibidos como diferentes. En este contexto, es fundamental cuestionar la validez de herramientas como Pixel Studio que pueden reforzar estos peligrosos patrones de pensamiento.
La falta de respuesta por parte de Google ante los cuestionamientos sobre la problemática de Pixel Studio resalta la necesidad de abordar estos problemas de manera directa. Es imperativo que se reconsideren las capacidades de generación de imágenes de personas dentro de la herramienta, o, al menos, que se implementen medidas que mitiguen la perpetuación de estereotipos.
En conclusión, lo que debería ser una herramienta innovadora está, en cambio, reproduciendo ideas limitadas y dañinas sobre el éxito. Como sociedad, es crucial reconocer el impacto real de estas representaciones y exigir un cambio significativo en cómo se normalizan las percepciones a través de la inteligencia artificial.