Madrid, 24 oct (EFE).- Hay quien augura que la inteligencia artificial será capaz de traducir idiomas o de escribir mejor que los humanos; de pintar o de crear complejas composiciones musicales. También que las máquinas conducirán o realizarán operaciones quirúrgicas de altísimo riesgo mejor que las personas más cualificadas.
Pero ¿está la inteligencia artificial libre de caer en los mismos errores que los humanos?; la respuesta es no, y durante los últimos años ya se han registrado casos y se han sucedido los errores. Uno de los más sonados: la aplicación que interpretó la imagen de dos personas negras como si fueran dos simios.
Capaces de aprender y de pensar, de desarrollar cualidades humanas, como la intuición o la creatividad, las máquinas aprendieron hace casi setenta años a diferenciar entre izquierda y derecha. Desde entonces se han impuesto a campeones mundiales del ajedrez o del póker, reconocen rasgos faciales o la voz. Además, traducen de forma simultánea, conducen de manera autónoma y perfeccionan el diagnóstico médico.
CRÓNICA | Hay quien augura que la inteligencia artificial será capaz de traducir idiomas o de escribir mejor que los humanos, pero…
¿está la inteligencia artificial libre de caer en los mismos errores que las personas?Por Raúl Casadohttps://t.co/6oC9isqqFa
— EFE Noticias (@EFEnoticias) October 25, 2022
Proponen marco regulatorio
Por ello, la inteligencia artificial (IA) será uno de los mejores aliados para afrontar los principales desafíos de la humanidad.
De esa cuenta, millones de personas, de forma consciente o no, la utilizan ya de forma cotidiana (navegación, geolocalización, computación o asistentes virtuales) y sus utilidades y aplicaciones son infinitas.
Robótica, redes neuronales, algoritmos, bases de datos inteligentes; utilidades ilimitadas y en medio de las cuales irrumpe el debate sobre la ética de esta tecnología, sobre el riesgo de que acrecienten las distintas brechas que ya existen (geográficas o generacionales).
Asimismo, que las máquinas puedan llegar a ser completamente autónomas y a desobedecer o incumplir las funciones para las que fueron diseñadas.
Surgen en este contexto los laboratorios de ideas para reflexionar y debatir sobre IA, sobre la ética y sobre la importancia de que las tecnologías no queden al margen de los valores. También de que las máquinas estén al servicio de las personas y no al revés y de que la sociedad perciba la IA como una oportunidad y no como una amenaza.
El presidente de We The Humans, un laboratorio de ideas independiente, Juan Ignacio Rouyet, observó que la propia Comisión Europea propone un marco regulatorio de la IA basado en cuatro niveles: desde el riesgo mínimo hasta el inaceptable.
Además, situó en este nivel los usos que estarían completamente prohibidos, como que un gobierno use esta tecnología para conocer mejor a un ciudadano.
En declaraciones a EFE, Rouyet apuntó que algo tan aparentemente inofensivo como un navegador puede escudriñar datos sobre la personalidad de un individuo. Además, conocer por ejemplo si acude más a librerías o a bares, lo que afecta de una forma directa a la libertad y a la intimidad de la persona.
Temores hacia la tecnología
Y en el mismo sentido el investigador Pedro Meseguer recordó que el anonimato que existía antes se está perdiendo. Por ello, incidió en que los temores hacia esta tecnología se pueden neutralizar con una legislación clara.
De esa cuenta, destacó que se debe determinar un tratamiento concreto de los datos personales recogidos por estas aplicaciones y que se haga cumplir por parte de las compañías tecnológicas.
Meseguer, del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC) español, subrayó a EFE que, como cualquier otra tecnología, la IA puede ser neutra. En ese sentido cita los diferentes usos que se puede hacer del fuego o de la tecnología nuclear.
El presidente de We The Humans mantiene que se trata de una tecnología muy poderosa porque identifica patrones y porque aprende, por lo que sus usos son ilimitados e insospechados.
En ese sentido, la IA ha sido capaz -recordó- de pintar El próximo Rembrandt, un retrato al estilo del pintor neerlandés, cuando aprendió a reconocer sus patrones de pintura. Pero la IA no fue creativa, pintó lo que le dijeron.
Profesor en varias universidades, Rouyet mantiene además que las brechas y las desigualdades que provocan las nuevas tecnologías van a ser cada vez mayores.
En consecuencia, se preguntan si el dueño y director de Meta, Mark Zuckerberg, está pensando implantar el metaverso en Sierra Leona.
Asimismo, si el robot humanoide diseñado por Tesla, cuyo coste rondará los 20 mil dólares, está pensado también para el mercado etíope o si estará al alcance de cualquiera.
No es infalible
Y un riesgo añadido, según el presidente de esta organización: que la IA acabe modificando la conducta humana cuando la persona delega en esa tecnología su autonomía o la toma de decisiones.
Podemos dejar que un automóvil conduzca, pero también que un sistema decida a quién contratar o a quién condenar. Eso es delegar nuestra autonomía, pero no en la inteligencia artificial, sino en manos de quien la ha diseñado, manifestó Juan Ignacio Rouyet.
Asimismo, aseguró que durante los últimos años ya se han registrado ejemplos claros de resultados incorrectos y de la llamada estupidez artificial.
En la inteligencia artificial el alimento son los datos, y si esos datos llevan algún tipo de sesgo el resultado final estará también viciado.
Por aparte, Pedro Meseguer incidió en la importancia de incluir valores éticos en el desarrollo de esta tecnología para evitar que tenga sesgos entre razas o sexos.
Además, se mostró convencido de que cambiará el comportamiento de los humanos. Al respecto, destacó los cambios originados por otras tecnologías como el teléfono o el automóvil.
En consecuencia, destacó que la posibilidad de fallo va a estar siempre presente porque, al igual que los humanos, la IA no es infalible. EFE
Lea también:
El delfín más grande del mundo ha perdido el 65 % de su población en 50 años
cv/ir