ChatGPT disparó el debate sobre el alcance de la inteligencia artificial

La apertura al público en general a finales del año pasado de ChatGPT, uno de los chatbot más avanzados de inteligencia artificial (IA) que puede redactar desde ensayos académicos hasta crear una sinfonía, trajo un nuevo debate sobre el alcance de estos programas conversacionales que buscan imitar las capacidades humanas, informó la Agencia de Noticias Télam. El sesgo de sus datos, el manejo de la tecnología en pocas empresas y el impacto en la educación y el trabajo son los principales temores que inciden en el debate público.

La empresa Open AI creó una web en noviembre que permitió a los usuarios experimentar con ChatGPT, por lo que en pocos días logró que millones de personas interactúen con esta inteligencia artificial, que funciona respondiendo preguntas y utiliza más de 175 millones de parámetros.

ChatGPT

Así, los usuarios fueron compartiendo en redes sociales los desafíos que le dieron al chatbot: resolver un problema de programación, crear un ensayo académico comparando dos teorías, escribir el guión de un juego o crear una partitura musical.

Lo que más sorprendió de este chat de IA fue la capacidad de dar respuestas acertadas y completas, con una gran cantidad de vocabulario e información y tomando las palabras en contexto.

Sin embargo, especialistas en la temática aseguraron que hay que analizar la veracidad y el sesgo de los datos que brinda y llamaron a «no obnubilarse» por esta tecnología.

«Llamó mucho la atención por su desempeño, resuelve un montón de tareas. Está entrenado para conversar con seres humanos y va aprendiendo. Tiene conciencia del contexto y genera ‘entendimiento’, pero esto es una metáfora para referirnos a una computadora ya que es sólo una capacidad que tiene el cerebro humano», dijo a Télam Fernando Schapachnik, director ejecutivo de la Fundación Sadosky, que está bajo la órbita del Ministerio de Ciencia, Tecnología e Innovación.

Para Schapachnik, «esta IA se diferencia de modelos anteriores porque nadie le dijo nada previo, nadie escribió las reglas ad hoc. Acá se le dio una serie de datos desestructurados y el sistema hizo lo que nosotros llamamos ´aprender´: infirió cómo era un contrato o una obra de teatro y construyó automáticamente las reglas».

«Pero todavía no se conocen todos los detalles de cómo se está implementado», añadió el especialista que detalló los interrogantes con respecto al funcionamiento de esta IA: «No sabemos si los datos que brinda están protegidos por licencias ni tampoco qué sesgos tiene con respecto a la moderación de los contenidos», describió.

Además, el hecho de que figure en una web para todo el mundo «es una cuestión temporal; una campaña para difundirlo, para mejorar el modelo, pero no creo que siga como una versión gratuita en el futuro», sostuvo.

Esta semana, el músico australiano Nick Cave criticó a este programa de IA tras la divulgación de una canción generada por el sistema que «imitó» su estilo de composición.

«Las canciones surgen del sufrimiento, lo que significa que se basan en la compleja lucha humana interna de la creación y, hasta donde yo sé, los algoritmos no tienen sentimientos», dijo el compositor en su sitio web y aseguró que se trató de «una burla grotesca».

Por su parte, Laura Alonso Alemany, profesora de Ciencias de la Computación de la Universidad Nacional de Córdoba (UNC) e integrante de la Fundación Vía Libre, llamó a «no obnubilarse» con las capacidades de esta tecnología.

«Ya veníamos madurando tecnologías así y esta es un poco mejor que las demás. Está armada con datos que nosotros pusimos en la web, que nosotros seguimos alimentando con nuestras preguntas. Estamos enseñándole. Puede hacer cosas fabulosas, pero de la misma forma puede errar», aseveró en diálogo con Télam.

Para Alonso Alemany «el peligro está en que la gente piense que lo que dicen estas tecnologías es la única verdad» y alertó que los chats de IA «pueden normalizar muchas cosas que como sociedad estamos dejando atrás como el racismo o la xenofobia porque están trabajando con datos históricos».

La proliferación de este tipo de programas trae un nuevo debate acerca de las consecuencias que tendría la aplicación masiva de estas tecnologías sobre los puestos de trabajo y la educación.

Schapachnik consideró que se trata de una «amenaza» para el mundo de los trabajadores ya que «hay más trabajos automatizables de los que creíamos, las tareas más repetitivas son las que peligran».

«A nivel del trabajo, estos modelos van a ayudar a sacarse de encima las cuestiones más mecánicas, las más repetitivas, pero el problema es que va a haber gente que se va a quedar sin empleo. Por cada trabajo más creativo e interesante se van a perder otros 10″, aseguró Alonso Alemany.

La investigadora de la UNC aseveró que, con respecto a la educación, «va a haber problemas de evaluación, ya que las instituciones hoy en día no tienen ni el tiempo ni la formación para adaptarse a estas nuevas tecnologías, lo cual es un riesgo».

Por último, los especialistas reflexionaron sobre la concentración que tiene el mercado de la IA, ya que Microsoft invirtió más de 1.000 millones de dólares en OpenAI para el desarrollo de ChatGPT y otros productos.

«Es un desarrollo que hace una empresa privada que busca un lucro, te lo dejan usar un ratito. Quieren que nos hagamos dependientes de una tecnología que nos la van a cobrar», aseguró Alonso Alemany y criticó que pocas compañías manejen esta tecnología.

«Hay pocas empresas que puedan desarrollar estos modelos de IA, que están basados en grandes cantidades de datos y cálculos. Mientras más dependientes somos, más concentrado está», aseveró.

En la misma línea, Schapachnik resaltó que la IA utiliza «un enorme centro de cómputos que consumen muchísima energía y eso cuesta dinero; no hay que pensar en altruismo en esta cuestión porque hay un inversión muy fuerte».

Fuente: https://www.telcosmedia.com.ar/ Télam

Deja un comentario