Nueva York, 2 may (EFE).- Uno de los mayores expertos en inteligencia artificial (IA), Gary Marcus, profesor emérito de psicología y ciencia neuronal de la Universidad de Nueva York, cree que va a ser necesario aplicar marcas de agua en las imágenes generadas por robots.
Algo parecido también en los textos, para diferenciarlos así de los generados por humanos y evitar que se propague la desinformación.
En un artículo reproducido en el New York Times, Marcus, autor de dos libros dedicados a la IA, trata de evitar el tono catastrofista —No soy de los que piensa que el planeta entero va a ser dominado por los robots—, pero admite que le preocupa lo que los actores negativos pueden hacer con estas cosas, porque nadie los controla.
No solo es ChatGPT o AutoGPT
Hoja de herramientas de inteligencia artificial por categorías para llevar tus conocimientos al máximo nivel:
Parte 4️⃣ : Música IA IA oh 🎶🎵 pic.twitter.com/GGI3izt1Fx
— Neuromodernos | Inteligencia Artificial 🦾 (@neuromodernos) April 25, 2023
Costo-beneficio
¿Los beneficios superan a los costos? —se pregunta— La respuesta más honesta es que no lo sabemos. Algunos quisiéramos que esto se ralentice porque vemos sus costos a diario, pero eso no significa que no haya beneficios, matiza, especialmente en los ámbitos técnicos.
Además, advierte de paso contra quienes abogan por el ChatGPT como medio de ganar una especie de carrera con China.
Como remedio inmediato, Marcus sugiere alguna especie de gobernanza internacional sobre el mundo de la IA.
Lo que necesitamos es algo global, neutral, sin ánimo de lucro, con gobiernos y empresas participando en ello. Tenemos que coordinar esfuerzos sobre cómo crear reglas (…) Necesitamos crear un código sobre lo que es aceptable y quién es el responsable.
Este organismo supranacional respondería a dudas razonables que ya se plantean, y pone los siguientes ejemplos: ¿Qué pasa si los chatbots mienten mucho?, ¿se puede permitir?, ¿quién será el responsable?
Senacyt financiará proyectos de ciencia y tecnología @senacytgt https://t.co/qNaLDCFnft
— Rrpp Guatemala (@RrppGuatemala) April 26, 2023
Costo cero
Si la desinformación se expande ampliamente, ¿qué hacer? ¿quién asume los costos? ¿queremos que las empresas pongan dinero para crear herramientas que detecten la desinformación que ellas mismas crean?”.
Actualmente -advierte- el costo de la desinformación es igual a cero.
Puede interesarle:
Microsoft y Alphabet ponen el foco en la nube y la inteligencia artificial