Tecnología

“La inteligencia artificial nos obliga a revisar nuestra idea de justicia” | Tendencias


Puedo decir algo más sobre esto?” y “Me he extendido demasiado” son dos de las muletillas con las que David Weinberger (Nueva York, 1950) finaliza muchas de sus respuestas. Este doctor en Filosofía por la Universidad de Toronto, bautizado por The Wall Street Journal como “gurú del marketing”, muestra así su pasión por asuntos que conoce al dedillo gracias a una larga trayectoria que ha desarrollado en paralelo a la evolución de internet, una herramienta que en su opinión nos ha conducido hasta “el mejor momento de la historia de la humanidad para convertirse en un sabio o en un perfecto idiota”. Si algunas de sus expresiones recuerdan a Woody Allen, no es casualidad: entre 1976 y 1983 fue uno de los guionistas que se introducía en la mente del director para crear las historias de la tira cómica Inside Woody Allen. Aunque ahora Weinberger prefiere diseccionar otros cerebros, el de las máquinas que aprenden por sí solas, con el fin de estudiar cómo piensan y los posibles sesgos de sus decisiones.

Ya en 1999 fue coautor del Manifiesto Cluetrain, definido como un manual sobre marketing online y en el que se abordaban las nuevas formas de comunicar y de compartir conocimientos e impresiones en internet. Casi 20 años después, al analizar cómo han evolucionado esas conversaciones, se muestra optimista: “Mucho de lo que estamos consiguiendo es positivo, a pesar de que resulta duro escuchar algunas conversaciones globales de las que no podemos estar orgullosos y que son fruto de la estupidez y de los privilegios de algunos. Además, existen conversaciones manipuladas, discontinuas u ofensivas que sería necesario erradicar, pero aun así no quiero subestimar la capacidad de internet como herramienta de comunicación”.

A ese manifiesto le siguieron otras publicaciones en solitario sobre tendencias tecnológicas, pero además ha trabajado como profesor universitario, articulista, vicepresidente de marketing, asesor de campañas presidenciales en internet, codirector del laboratorio de innovación en bibliotecas de la Facultad de Derecho de Harvard… Un extenso y variado currículum hasta llegar a la actualidad, momento en el que está centrado en su labor como investigador del Berkman Klein Center for Internet & Society de la Facultad de Derecho de Harvard.

  • Máquinas que juegan con sus propias reglas

La actividad de Weinberger intenta dar respuestas a cómo está cambiando la tecnología las relaciones humanas, la comunicación, el conocimiento y la sociedad. Este es el motivo por el que será uno de los ponentes en el próximo Foro de la Cultura de Burgos, que se celebrará en la ciudad castellana del 9 al 11 de noviembre. En este encuentro, reflexionará sobre la siguiente pregunta: ¿seremos capaces de controlar la inteligencia artificial (IA)? Weinberger adelanta a EL PAÍS RETINA que hay dos aspectos “apasionantes” a la hora de investigar los avances del aprendizaje automático (el consabido machine learning) de las máquinas: los nuevos conjuntos de reglas creados por la propia IA y la redefinición del concepto de imparcialidad.

Con respecto al primer asunto, los avances tecnológicos como la inteligencia artificial aplicada al Internet de las cosas están permitiendo que las máquinas no solo conecten entre ellas, sino que además creen sus propios sistemas para comunicarse y determinar cómo se afectan entre sí los elementos que conforman dichos sistemas. “Estamos confiando cada vez más en máquinas que extraen conclusiones de modelos que ellos mismos han creado y que a veces están más allá de la comprensión humana porque sus reglas conciben el mundo de una manera diferente a nuestra forma de pensar”, señala.

Así las cosas, el tecnólogo se pregunta qué significaría para nosotros si esos modelos con los que el aprendizaje automático entiende el mundo resultaran ser más precisos o veraces que nuestra propia manera de analizar cómo funciona el mundo. “Es un largo debate, aunque ya estamos recurriendo a máquinas que piensan de una manera diferente a nosotros porque calculan más rápido o porque sus respuestas suelen ser más certeras, aunque no sepamos explicar cómo lo consiguen”, apunta Weinberger.

  • ¿Más o menos imparciales que los humanos?

Ese matiz de “lo inexplicable” enlaza con el segundo asunto de la IA que hoy en día ocupa la mente de este filósofo: la imparcialidad. “Las conclusiones de los sistemas creados por las máquinas quizás no solo estén repitiendo los sesgos que introducimos los humanos, sino que incluso podrían amplificarlos”, afirma. En su opinión, nuestra primera responsabilidad es averiguar por qué el aprendizaje automático llega a diagnósticos parciales, aunque “no está muy claro que siempre vayamos a ser capaces de detectar el punto en el que se han equivocado, precisamente porque a veces no sabemos cómo entienden el mundo y esos modelos cada vez serán más complejos”.

Según Weinberger, es necesario seguir trabajando en este concepto, lo cual ya está generando un debate que le resulta muy enriquecedor: “Admito que la IA puede amplificar las injusticias en la sociedad y que es posible que eso sea algo muy difícil de evitar, por lo que supone un problema urgente. Pero personalmente quizás esté más interesado en lo que los humanos estamos aprendiendo sobre nuestro propio concepto de imparcialidad gracias a nuestro trabajo con la IA”.

Según el filósofo, si el responsable de un sistema de machine learning quiere que este sea justo, primero debe decirle exactamente qué tipo de imparcialidad debe tener en cuenta para hacer sus cálculos, así que durante los próximos años asistiremos a innumerables debates en torno a lo que nos parece justo e injusto. “Ya no se trata de lograr una IA justa, sino que la propia IA está haciendo mucho por nosotros porque nos obliga a revisar las diferentes ideas de justicia que tenemos las personas”, concluye.




Fuente: El país

Comentar

Click here to post a comment

injerto
injerto