Cuando OpenAI anunció su nueva herramienta de detección de Inteligencia Artificial (IA) el martes, la compañía sugirió que podría ayudar a disuadir las trampas académicas mediante el uso de su propio chatbot de IA muy popular, ChatGPT.
Pero en una serie de pruebas informales realizadas por NBC News, la herramienta OpenAI tuvo problemas para identificar el texto generado por ChatGPT. Tuvo problemas especialmente cuando se le pidió a ChatGPT que escribiera de una manera que evitara la detección de IA.
Recibe las noticias locales y los pronósticos del tiempo directo a tu email. Inscríbete para recibir newsletters de Telemundo Chicago aquí.
La herramienta de detección, que OpenAI llama AI Text Classifier, analiza los textos y luego le otorga una de cinco calificaciones: "muy poco probable, poco probable, poco claro si es, posiblemente o probablemente, generado por IA". La compañía dijo que la herramienta proporcionaría una calificación "probablemente generada por IA" al texto escrito por IA el 26% del tiempo.
La herramienta llega cuando la repentina popularidad de ChatGPT ha llamado la atención sobre cómo las herramientas avanzadas de generación de texto pueden representar un problema para los educadores. Algunos maestros dijeron que la precisión impredecible del detector y la falta de certeza podrían crear dificultades al acercarse a los estudiantes sobre una posible deshonestidad académica.
“Podría darme cierto grado de certeza, y eso me gusta”, dijo Brett Vogelsinger, profesor de inglés de noveno grado en la escuela secundaria Holicong en Doylestown, Pensilvania. “Pero también estoy tratando de imaginarme acercándome a un estudiante con una conversación sobre eso”.
Para más información, visita NBCNews.com.