Tal como analizamos en ChatGPT desafía a la docencia, el creciente empleo de sistemas de inteligencia artificial generativa trajo consigo beneficios a la hora de crear contenido y, en paralelo, una serie de aspectos que generan preocupación y deben ser atendidos. Uno de los inconvenientes que ha surgido es la dificultad para distinguir fehacientemente el contenido real —creado por humanos— del sintético. El caso de los textos es particularmente acuciante.
Por: TN
La polémica bulle especialmente en los ámbitos académicos, en los que se registran numerosísimos casos de estudiantes que entregan trabajos íntegramente escritos por modelos como ChatGPT de OpenAI o Gemini de Google. Ocurre que esas herramientas son realmente eficaces para la redacción: el usuario anota una serie de instrucciones, y los programas revisan sus bases de datos para, en pocos segundos, crear textos extensos.
En el contenido audiovisual, por ejemplo en imágenes y videos, la elucidación podría ser más sencilla. Por caso, algunos desarrolladores han comenzado a incluir marcas de agua para mostrar sin rodeos cuándo se trata de una creación sintética. En los escritos, la identificación encierra mayores complejidades. En este marco, ¿hay modos eficientes de identificar si un texto fue escrito por ChatGPT y afines?
Puedes leer la nota completa en TN