ChatGPT puede crear más basura en las redes


La inteligencia artificial conversacional ChatGPT llegó sorprendiendo al público con su facilidad para responder a casi cualquier tema de forma fluida. Cuando lo probé, preguntándole sobre temas sobre los que había buscado sin mucho detenimiento hacía tiempo, sus respuestas superaron mis expectativas. Eran cuestiones que, si me hubiera decidido a convertirlas en entradas, tendría que consultar muchísimas fuentes para poder rescatar datos sueltos y entre todos crear algo útil. En cambio, en un momento había conseguido hacer resúmenes de unas 300 palabras cada uno en un momento.

Sus limitaciones


En cambio, luego comenzaron a notarse sus carencias. Entonces, percibí que el buen hacer de ChatGPT era tan solo una ilusión. Juntaba bien las palabras, y era bueno en eso, pero no tenía ni idea de lo que escribía. Siendo una inteligencia artificial, parecía evidente, pero era una limitación que tenía consecuencias. En su base de datos habría información creada por humanos que le permitiría dar respuestas correctas, pero como en el fondo no hace más que juntar palabras con naturalidad, también se inventaba información. El problema es que no eran detalles totalmente absurdos, sino afirmaciones sin ningún sustento. ¿Lo que dice es falso o verdadero? La forma de expresarse parece la propia de alguien que sabe de lo que habla. Si dice algo raro, supones que será porque alguien lo dijo en sus bases de datos, pero la ausencia de referencias impide seguir el rastro de sus declaraciones.

Los malos usos


Con esto no quiero decir que ChatGPT no sea útil, pero hay que saber usarlo. No valoraré su capacidad en el ámbito informático porque no tengo conocimientos en ese área, pero en la escritura el problema reside en que será más útil allá donde puede ser dañino. En primer lugar, puede utilizarse para completar un trabajo de instituto. Aunque las respuestas no dan para llenar páginas, los estudiantes no van a tener problemas en hacer una composición con varias de ellas. Los profesores van a preferir que copien de la Wikipedia, porque al menos así han consultado una web de cierta confianza y ver cómo se referencian los textos. Como siempre ha habido estrategias para ahorrarse esfuerzo en clase, veo más preocupante la otra opción.

La otra opción atañe a las páginas web. Para ello, permíteme recordar primero el pasado. Hace años, los titulares con anzuelos cansinos o clickbait llenaron internet. Especialmente en redes sociales, te encontrabas artículos con gran tráfico pero que no satisfacían a sus lectores. Sus titulares llamativos siempre ofrecían una promesa que nunca se cumplía. Esta efectiva estrategia era pan para hoy y hambre para mañana, pues dependía de usuarios que no se olieran que iban a perder el tiempo insatisfactoriamente. Si no los conociste, eran artículos llenos de publicidad que seguían varias estrategias. Para empezar, sus titulares siempre apelaban a tus instintos más básicos, a tus sentimientos y tus emociones, al morbo. Iban dirigidos directamente a ti. Era habitual que incluyeran un adjetivo innecesario para indicarte cómo debías sentirte. Jugaban con el suspense, por lo que abusaron de la coletilla "y no te creerás lo que pasó" y otras similares. En los propios artículos, o te encontrabas con un desvarío interminable que no llegaba al punto que indicaba al titular o, peor aún, se trataba de decenas de páginas conectadas como diapositivas.


Algunas webs dependientes de estas estrategias acabaron sufriendo su pérdida de efectividad y las penalizaciones de buscadores y redes sociales, pero estas tácticas realmente no han desaparecido, sino que son más sutiles. Al fin y al cabo, como ocurre tanto en textos como en vídeos, lo importante era producir gran cantidad de contenido. Si se quiere calidad, y rápido, es necesario pagar para producirla, por lo que la otra opción es producir un torrente de paja. Paja porque los buscadores y plataformas de vídeo puntúan bien que te quedes mirando, pero les da igual a qué. No puede ser copiado ni traducido automáticamente, pero hay herramientas para parafrasear y usar sinónimos que evitan las complicaciones. Además, hay plataformas, como Publisuites, que por simplemente 5€ te ofrece textos escritos por humanos y enlaces en webs que aparentan ser de noticias. Con esto no solo te ahorras el texto a cambio de una limosna sino que ganas enlaces, que tanto gustan a los buscadores.

Ahora bien, ChatGPT facilita esta tarea. Ni siquiera hace falta humanos o traducciones automáticas con algunas palabras cambiadas. Puedes generar gran cantidad de contenido, bien escrito, a cambio de nada. Incluso aunque tuviera un coste, el problema sería el mismo: la generación de texto sin utilidad. ¿Lo que dice es mentira? ¿Se lo ha inventado? ¿No es útil? ¡Qué más dará! Será texto sin base para sus argumentos. ¿Quieres preguntar una duda en los comentarios? Más vale que pueda responderte la IA. No te sabrá dar una valoración de una obra artística que pudiera interesarte, como un libro o una película, porque solo puede crear algo que se parezca a una opinión o recoger una ajena. Cualquier dato que te de, salvo que sea muy obvio o se pueda buscar fácilmente, tendrá que ser cogido con pinzas porque puede habérselo sacado de la chistera. Tampoco se acordará de ti ni de vuestra conversación. Teóricamente, el contenido generado por humanos debería aumentar su valor, pero los últimos años nos han enseñado que se premia lo genérico. Tan genérico...que acabará haciéndolo un robot.

Las imágenes


Las imágenes se corresponden a los primeros intentos, cuando daba un resultado satisfactorio. Luego, preguntándole sobre entradas que estaba escribiendo, daba información cuestionable. Le pregunté sobre series que no eran de actualidad, que no eran las más populares pero que tuvieron reconocimiento en su época, pero sus respuestas eran incongruentes. Si os fijáis, los textos en las imágenes que he compartido también tienen flaquezas. Parte de su respuesta comparte información que le he dado en la pregunta. Es más evidente en la respuesta sobre los Youxia y Chebyshev. En el primero, al decir "justicieros errantes chinos", desarrolla a partir de lo que hacen los justicieros en general. Es fácil plantearse que sean héroes del pasado que, por supuesto, habrían actuado en China. Ahora bien, ¿lo que dice es cierto? No tiene que ser mentira, pero no es nada concreto. ChatGPT no se moja. En el segundo, la máquina de Chebyshev es uno de los primeros robots andantes, pero ¿"andar humanoide"? Os aviso que tenía cuatro patas y nada más. En la última imagen le presento una pregunta más sencilla, pero introduce la biología y la geometría cuando no tienen nada que ver.

Siguiente entrada Entrada anterior
No Comment
Añadir comentario
comment url

Libre para donar o aceptar cookies