¿Qué es ChatGPT? conoce cuáles son los peligros y cómo detectar contenidos con IA.
¿Qué significa ChatGPT?
ChatGPT (Generative Pre-trained Transformer) es la última sensación viral de la startup OpenAI, con sede en San Francisco.
Se trata de una herramienta en línea gratuita que se ha entrenado con millones de páginas escritas en todos los rincones de Internet para entender y responder a consultas basadas en texto en casi cualquier estilo que desees.
¿Cuáles son los peligros de ChatGPT?
ChatGPT repite como un loro el contenido existente y, aunque «parezca» fidedigno, puede ser totalmente erróneo. (A estas alturas, todos sabemos que no todo lo que se lee en Internet es cierto).
La IA aún no puede distinguir la realidad de la ficción, y ChatGPT se entrenó con datos que ya tienen dos años. Si se le hace una pregunta oportuna, como cuál es el modelo de iPhone más reciente, responde que es el 13.
«En el pasado, la IA se ha utilizado sobre todo para predicciones o categorización. ChatGPT creará nuevos artículos, noticias o entradas de blog, incluso redacciones escolares, y es bastante difícil distinguirlos de los escritos reales, creados por humanos», me dice Helen Lee Bouygues por correo electrónico.
Bouygues es presidenta y fundadora de la Fundación Reboot, que aboga por el pensamiento crítico para combatir el aumento de la desinformación. Le preocupa que nuevas tecnologías como ChatGPT difundan información errónea o noticias falsas, generen prejuicios o se utilicen para difundir propaganda.
«Lo que más me preocupa es que la gente se vuelva más tonta, sobre todo los jóvenes, mientras los ordenadores se vuelven más inteligentes», explica Bouygues. «Porque cada vez más gente utilizará herramientas como ChatGPT para responder a preguntas o, en general, para relacionarse con el mundo sin un pensamiento más rico y reflexivo. Por ejemplo, las redes sociales. La gente hace clic, publica y retuitea artículos y contenidos que no ha leído. ChatGPT empeorará la situación al facilitar que la gente no piense. En su lugar, será demasiado fácil que el bot conjure sus pensamientos e ideas».
Las políticas de uso y contenidos de OpenAI advierten específicamente contra las prácticas engañosas, como promover la deshonestidad, engañar o manipular a los usuarios o tratar de influir en la política. También establece que, al compartir contenidos, «todos los usuarios deben indicar claramente que han sido generados por IA ‘de una forma que nadie pueda razonablemente pasar por alto o malinterpretar'».
Pero estamos hablando de humanos. ¿Y la honestidad? Suspiro.
Buzzfeed anunció el jueves que se asociará con ChatGPT para crear contenidos. El sitio de noticias CNET está en el punto de mira por utilizar IA para crear artículos informativos en su sección de Dinero, sin total revelación y transparencia.
Una encuesta reciente de la revista en línea Intelligent.com entre 1.000 estudiantes universitarios de Estados Unidos también informa de que casi 1 de cada 3 ha utilizado ChatGPT en trabajos escritos, aunque la mayoría piensa que es «hacer trampas».
Los distritos escolares de Nueva York y Seattle prohibieron recientemente el uso de ChatGPT en sus dispositivos y redes, y muchas universidades están considerando medidas similares.
Si te interesa más sobre este tema. clic aquí
Cómo detectar contenidos escritos con IA
En una declaración de OpenAI, un portavoz nos dijo que la compañía a través de correo electrónico que ya están trabajando en una herramienta para ayudar a identificar el texto generado por ChatGPT. Al parecer, es similar a «una ‘marca de agua’ algorítmica, o una especie de bandera invisible incrustada en la escritura de ChatGPT que puede identificar su fuente», según CBS.
«Siempre hemos pedido transparencia en el uso de texto generado por IA. Nuestras políticas exigen que los usuarios sean francos con su público cuando utilicen nuestra API y herramientas creativas como DALL-E y GPT-3», reitera el comunicado de OpenAI.
Un estudiante de último curso de Princeton ha creado recientemente una aplicación llamada GPTZero para detectar si la IA ha escrito una redacción. Pero aún no está lista para el gran público.
Yo utilicé un detector de contenidos de IA llamado Writer, y detectó la mayoría de los casos de ChatGPT que le indiqué. Pero hay quien teme que la capacidad de la IA para imitar a los humanos vaya mucho más rápido que la capacidad de la tecnología para controlarla.
Aun así, el gato está fuera de la bolsa y no hay forma de volver a meterlo.
«Esto no es malo», dice Neil Voss. «Al otro lado de esto hay logros con los que sólo hemos podido soñar, pero llegar hasta ahí va a ser difícil. Depende de nosotros aplicar ese potencial a cosas que valgan la pena, tengan sentido y sean humanas.»
Cuando le pedí a ChatGPT que escribiera una frase sobre las implicaciones éticas de ChatGPT al estilo de la periodista tecnológica Jennifer Jolly, dijo: «ChatGPT es un tour-de-force tecnológico, pero también plantea importantes consideraciones éticas, como por ejemplo cómo garantizar que esta poderosa herramienta se utiliza de forma responsable y para el bien común».
Tengo que admitir que yo no podría haberlo dicho mejor.
Jennifer Jolly es una columnista de tecnología de consumo ganadora de un premio Emmy. Los puntos de vista y opiniones expresados en esta columna son los de la autora y no reflejan necesariamente los de USA TODAY.
Párrafo de Reflexión
La nueva plataforma OpenIA es una nueva herramienta que nos permite realizar de manera fácil y rápida diversas actividades en distintos ámbitos, sin lugar a duda esto se ha convertido en un respiro para trabajadores y estudiantes, sin embargo se la está calificando como una herramienta antiética debido al mal manejo de sus usuarios, no se la usa como material de apoyo sino más bien para realizar todo un trabajo, es por eso que se está trabajando para garantizar una poderosa herramienta que solo se use de manera responsable.