¿Están sesgadas las discusiones sobre los sesgos de las inteligencias artificiales?
14 Oct 2024 Your NameNo tengo ninguna duda sobre que las discusiones sobre los sesgos de las inteligencias artificiales están muy sesgadas en nuestro contexto. Es una herencia de ese sentimiento anti-tecnología que rodea todas las discusiones y que, aquí encuentra argumentos con facilidad. Me esperaba, sin embargo, algo menos en el contexto global y Donald Clark nos recuerda que no es así en What if discussions of bias in AI were mostly biased themselves?.
Habla de los típicos argumentos que ya casi son un meme, como la inteligencia artificial que confunde a una persona negra con un gorila, y otros…
You also hear the same very old examples being brought up time and time again: black face/gorilla, recruitment and reoffender software.
Luego pasa a analizar algunas de las críticas habituales, y por qué podrían ser poco útiles:
- Razonamientos que implican sólo los aspectos negativos. Pero todas las tecnologías (y lo que no es) tienen aspectos negativos y, en este caso, en lugar de analizar lo positivo y lo negativo se quedan en los aspectos menos convenientes.
The main bias in debates on bias is a form of one-sidedness in the analysis. Most technology has a downside. ... Rather than tease out the complexity, even comparing upsides with downsides, we are given the downsides only.
- Razonamientos antropomórficos. Se basan muchas veces en ver los posibles efectos de la tecnología, visualizándolos como robots malignos, o acciones que podemos comprender mejor que la propia naturaleza de los algoritmos que realmente se utilizan.
So crude images of robots enter the mind as characterising AI, or fixed databases where data is retrieved, as opposed to complex LLMs, vector databases or software or mathematics, which is not, for most, easy to call to mind or visualise.
- Razonamientos que ignoran los propios sesgos humanos. Las personas tenemos nuestros propios sesgos (género, educación, economía, …) lo que hace que muchas veces ni siquiera seamos capaces de ver el problema de manera desapasionada (sesgo de confirmación, negatividad, …)
One layer of human bias heavily influences the bias debate. Rather than look at the issue dispassionately we get well identified neophobia biases; ... This is common in financial decision making and, especially, new technology.
- Razonamientos que asumen que todas las inteligencias artificiales tienen sesgos. Pero todos conocemos algoritmos sin sesgos (ordenar una lista, por ejemplo) y eso sucede con la mayoría. No sólo eso, mejoran la velocidad, efectividad….
The point is that most algorithms are benign, doing a mechanical job and free from bias. They can improve performance in terms of strength, precision and performance over time...
- Razonamientos que combinan los sesgos humano y estadístico. No hay que olvidar que hablamos de programas, que no tienen consciencia no conocimiento de cuál es su objetivo y por lo tanto no pueden tener sesgo en el sentido en el que lo tienen las personas. La definición de sesgo estadístico tiene que ver con medir la diferencia entre ‘lo esperado’ y ‘lo que se obtiene’ y, en este sentido, nos permite medir, comprobar y tratar de eliminar el problema. Sin embargo, el sesgo humano muchas veces ni siquiera se mide.
Al is not conscious or aware of its purpose. It is just software, and as such, is not ‘biased’ in the way we attribute that word to ‘humans’. ... There is a definition of ‘bias’ in statistics, which is not a pejorative term, but precisely defined as the difference between an expected value and the true value of a parameter. ... The statistical approach at least recognises these biases and adopts scientific and mathematical methods to try to eliminate these biases. ... This is a key point – human bias often goes unchecked, statistical and mathematical bias is subjected to rigorous checks.
- Barandillas. Las barandillas (guardrails) son una intervención humana, igual que los re-entrenamientos (post-model training) que tratan de mejorar los resultados, pero que pueden introducir sus propios problemas por los sesgos de los humanos.
Guardrails are human interventions, along with post-model training by humans. These introduce problems with bias introduced by humans.
- Acusaciones de racismo. Las inteligencias artificiales son un fenómeno global, no están confinadas al mundo occidental. Incluso en Silicon Valey (el Valle de la Silicona, como decían en aquella traducción de la películas de James Bond) hay una cierta diversidad. ¿No estaremos exagerando sobre la maldad de estas empresas? Eso no quiere decir, claro, que no ocurra en algunos casos.
AI is a global phenomenon, not confined to the western world. Even in Silicon Valley the presence of Chinese, Asian and Indian programmers is so prevalent that they feature in every sitcom on the subject. In addition, the idea that these coders are unconsciously, or worse, consciously creating racist and sexist algorithms is an exaggeration.
- Acusaciones de sexismo. En este caso, nos dicen, el sesgo está claramente en la parte de las personas (educación, y sus resultados).
There seems to be bias in the educational system among parents, teachers and others to steer girls away from STEM subjects and computer studies. But the idea that all algorithms are gender-biased is naïve. If such bias does arise one can work to eliminate the bias. Eliminating human gender bias is much more difficult.
- Inteligencia artificial y transparencia. Se habla mucho de la transparencia en los algoritmos de inteligencia artificial, pero mucho menos de otros algoritmos y todavía menos en los resultados de otras disciplinas (cita la medicina, y como algunos medicamentos sabemos que funcionan pero no tenemos claro del todo por qué; y aún así los utilizamos, claro).
A common observation in contemporary AI is that its inner workings are opaque, especially machine learning using neural networks. But compare this to another social good – medicine. We know it works but we don’t know how. As Jon Clardy, a professor of biological chemistry and molecular pharmacology at Harvard Medical School says, "the idea that drugs are the result of a clean, logical search for molecules that work is a ‘fairytale'”. Many drugs work but we have no idea why they work. Medicine tends to throw possible solutions at problems, then observe if it works or not.
- Confundir lanzamientos tempranos y pruebas con los productos finales. La clave, nos dice, es que esos algoritmos no tienen consciencia ni conocimiento así que cometerán errores que pueden corregirse en sucesivas iteraciones.
The good news is that repeated failure results in improvement in machine learning, reinforcement learning, adversarial techniques and so on. It is often absolutely necessary to learn from mistakes to make progress. We need to applaud failure, not jump on the bias bandwagon.
Podemos decir que algo funciona mal, ponerle mala fama y evitar utilizarlo, pero eso no evitará que otras personas lo utilicen, corrijan sus sesgos y tomen decisiones sobre ello mientras nosotros lo criticamos y decimos que no sirve.