23/Jul/2024
Portal, Diario del Estado de México

Imposible imitar procesos del cerebro humano en Inteligencia Artificial: experto

Fecha de publicación:

Se ha alimentado la percepción equivocada de que los sistemas de Inteligencia Artificial (IA) son capaces de llevar a cabo procesos como los que ocurren en el cerebro humano, además de que no están diseñados para la educación, por lo que es imprescindible informarse de sus verdaderos alcances, afirmó el especialista en IA, Rafael Pérez y Pérez.

En el Edificio de Educación Continua y Digital de la Universidad Autónoma del Estado de México (UAEMex), Pérez y Pérez impartió la conferencia ‘Reflexiones acerca de las discusiones sobre el uso ético de la IA’, como parte del Foro ‘Uso Ético de la Inteligencia Artificial en Educación’, organizado por la Secretaría de Docencia, la Dirección de Educación Continua y Digital, la Dirección de Desarrollo de Personal Académico (DiDEPA) y la Facultad de Ciencias de la Conducta (FACICO).

El especialista explicó que el conocimiento sobre cómo funciona el cerebro humano aún es muy limitado; por tanto, es imposible desarrollar programas de cómputo, ya sea sistemas de IA u otros, que imiten el funcionamiento de dicho órgano o de los procesos mentales que de él emergen.

En ese sentido, refirió que algunas expresiones que se emplean en la IA no tienen el mismo significado cuando se refieren a las personas; por ejemplo, el término “aprendizaje de máquina”, que describe un proceso totalmente diferente al que siguen las personas cuando aprenden algo nuevo.

Es así que para el investigador es necesario que cualquier documento que hable sobre la ética de IA debe dejar claro que hay un conocimiento sobre el funcionamiento del cerebro humano, cómo y bajo qué contexto se emplean los términos que dan a entender un funcionamiento similar entre la IA y el cerebro humano.

“En resumen, dado el contexto de confusión que actualmente impera respecto a los alcances de la Inteligencia Artificial, al hablar de ética se debe poner un especial cuidado para evitar contribuir de manera involuntaria a la desinformación”, sugirió.

Asimismo, alertó que los sistemas de IA como ChatGPT no están diseñados para apoyar la educación porque su objetivo es la composición de textos bien estructurados sobre infinidad de temas y que muestren un uso adecuado del lenguaje más que la veracidad o la ética de los escritos que ofrece el algoritmo.

“En la actualidad, ChatGPT no está regulado y, por lo tanto, no tenemos claridad sobre qué datos usan para entrenarlo y qué otras herramientas usan para hacer más poderoso el desempeño del sistema”, aseveró.

De manera general, el especialista refirió que existe una desinformación y atribución errónea de capacidades de la IA, que no es un sistema diseñado para la educación y que aún no comprendemos como usuarios, su funcionamiento.

(Foto: Especial Portal)

Noticias Relacionadas

Prevé UAEMex apertura de hasta 17 sedes hospitalarias para 2020

02/01/2020

02/01/2020

Para el año 2020 se prevé la apertura de hasta 17 nuevas sedes hospitalarias, donde alumnos de las especialidades que...

Desarrollo equitativo de México es posible con los proyectos de infraestructura: experto

03/01/2021

03/01/2021

La pandemia de COVID-19 acentúa las desigualdades sociales; sin embargo, la adecuada puesta en marcha de megaproyectos de infraestructura podría...

Investigadora de la UAEMéx analiza factores que propician conductas antisociales en niñas y niños

08/10/2023

08/10/2023

Con el propósito de identificar comportamientos antisociales e ilícitos en edades tempranas, Brenda Mendoza González de la Facultad de Ciencias...

Entrega Alfredo Barrera nuevas instalaciones en Facultad de Artes de UAEM

14/04/2021

14/04/2021

En beneficio de la comunidad de la Facultad de Artes de la Universidad Autónoma del Estado de México, el rector...

Storytelling una labor más allá de “contar historias”

23/11/2019

23/11/2019

El storytelling es esencial para la preservación de una cultura, y el lenguaje es esencial para el storytelling -       Brian Rosenblum  Ximena...