Durante el Seminario
“Derecho digital y tecnologías disruptivas”, Pablo
Pruneda Gross cuestionó: ¿Quién debe regular, quién
emitirá una ley de una tecnología que es transfronteriza,
qué soberanía aplica?
La inteligencia artificial (IA) se faculta para las
causas más venturosas de la humanidad, pero también para
la creación de sistemas autónomos y de armamento, por lo
que la especie humana se encuentra en peligro como
cuando se descubrió la energía atómica; en consecuencia,
es un tema de regulación que no podemos dejar de
considerar, planteó Pablo Pruneda Gross.
El coordinador de la línea de investigación “Derecho e
Inteligencia Artificial”, del Instituto de
Investigaciones Jurídicas (IIJ) de la UNAM, aseguró: si
a la IA se le permite tener acceso a mecanismos que
dañen o atenten contra la vida, puede tener la capacidad
de decidir entre que viva o no un ser humano.
“Lo que hemos visto desde 2018 es una irrupción
tecnológica, ha venido a violentar de manera positiva a
veces, a veces no. Tenemos mecanismos de reconocimiento
de voz, facial, algoritmos que revisan la moderación de
contenidos en una red social: primero me clasifican a
ver qué intereses tengo y luego me mandan la información
que saben que nos puede interesar; ahora entendemos por
qué no dejamos de ver la pantalla”, alertó.
Al participar en el Seminario “Derecho digital y
tecnologías disruptivas”, el investigador se refirió a
la Inteligencia Artificial Generativa como el ChatGPT,
herramienta que “es una especie de chat como WhatsApp,
solo que en lugar de hablar con una persona se conversa
con una entidad artificial; no es un buscador de
fuentes, es un generador de contenido que trabaja con
frases cercanas a la realidad y por eso asombra”.
En el Aula Centenario del IIJ, Pruneda Gross mencionó
que es una entidad que nos recuerda la primera vez que
usamos internet y cómo nos asombramos de lo que ocurre
en nuestra computadora. “Eso mismo está pasando con este
chat, se programa a través de la emulación de las redes
neuronales; ya se creó la versión más moderna (GPT-4) a
través de Machine Learning que es el Deep Learning”.
ChatGPT busca y a partir de lo que encuentra crea
contenidos: le proporcionas imágenes y realiza un
diseño, un archivo o lectura en PDF; le solicitas que
formule un resumen con los puntos fundamentales, o la
creación de una página de internet y la elabora.
“Con GPT-4 se viene un replanteamiento de la
inteligencia general artificial, la que tiene
capacidades similares a las de un ser humano. Se trata
de un algoritmo que programa algoritmos, y si lo que
programa lo hace mejor que el ser humano rápidamente
habrá un crecimiento exponencial de la tecnología y los
seres humanos nos vamos a quedar viendo”, destacó.
Pablo Pruneda afirmó que la IA generativa tiene
capacidades similares a las de una persona como es el
Chat GPT-4. “Tiene muchas ventajas y enseñanzas, pero
puede ser que estemos abriendo una caja de pandora,
puede ser una tecnología tan perniciosa que extinga a la
raza humana, de ese tamaño es el problema y ahora sí hay
indicios en la tecnología que están presentes para
afirmarlo, ¿qué tenemos que hacer?, regular”.
En aras de ganar la carrera tecnológica, formuladores y
creadores toman atajos y cometen errores, por lo que
tiene que haber un regulador. ¿Quién debe regular y
quién debe entrar? ¿quién va a emitir una ley de una
tecnología que es transfronteriza, qué soberanía aplica?
Riesgos
El especialista del IIJ señaló algunos riesgos de no
regular o legislar las prácticas de la IA generativa.
Puede ser adherida a ciertos valores e intereses
humanos; además de la generación de contenido escrito,
imagen y video falso o malicioso que podría utilizarse
en fraudes o suplantación de personas e identidades.
También ser una influencia en la democracia hacia la
polarización, incidir en la protección a la imagen e
intimidad; se convertiría en un riesgo en la interacción
con menores de edad.
Puso como ejemplo una imagen reciente del Papa Francisco
I donde porta una chamarra larga de color blanco
exhibida en redes sociales digitales, fotografía
elaborada por ChatGPT.
Ante esto, Pablo Pruneda preguntó: ¿Quién debe evaluar
esto, el gobierno solo, o se lo dejamos a las empresas?
Hay que generar un discurso conjunto entre academia,
gobierno, empresa, industria y sociedad civil. En este
momento, como dijo el periodista estadounidense Ezra
Klein, “es mejor equivocarnos por sobre regular, que por
subregular”.
En la actividad académica estuvieron también: Israel
Santos Flores y Mauricio Padrón Innamorato, investigador
y secretario académico del IIJ, respectivamente; Alicia
Edith Trejo Jiménez, doctoranda del Instituto, y María
Cristina Múzquiz Fragoso, directora de Docencia en
Tecnologías de Información y Comunicación de la
Dirección General de Computo y de Tecnologías de
Información y Comunicación. |