Por favor active JavaScript para poder aprovechar la funcionalidad completa de GMX.

Investigadores universitarios revelan que engañaron a los profesores al enviarles respuestas a exámenes de IA

Investigadores universitarios revelan que engañaron a los profesores al enviarles respuestas a exámenes de IA

Investigadores de la Universidad de Reading revelaron que engañaron con éxito a sus profesores al enviarles respuestas de exámenes generados por IA.

Sus respuestas pasaron totalmente desapercibidas y superaron a las de estudiantes reales, según demostró un nuevo estudio.

El proyecto implicó la creación de identidades de estudiantes falsas para enviar respuestas sin editar generadas por ChatGPT-4 para evaluaciones en línea para llevar a casa en cursos de pregrado.

De las 33 candidaturas, sólo una fue señalada por los marcadores de la universidad, que desconocían el proyecto.

Las respuestas restantes generadas por IA recibieron calificaciones superiores al promedio en comparación con los estudiantes reales.

Los autores del estudio destacaron que sus hallazgos demostraron que los procesadores de inteligencia artificial (como ChatGPT ahor son capaces de pasar la prueba de Turing) tienen la capacidad de pasar sin ser detectados por jueces experimentados, que llevan el nombre del pionero de la informática Alan Turing.

El Dr. Peter Scare, profesor asociados de la Facultad de Psicología y Ciencias del Lenguaje Clínico de Reading, dijo sobre el estudio de los exámenes de IA:

'Nuestra investigación muestra que es de importancia internacional comprender cómo la IA afectará la integridad de las evaluaciones educativas. No necesariamente volveremos completamente a los exámenes escritos a mano, pero el sector educativo global necesitará evolucionar frente a la IA'.

El estudio fue anunciado como el 'estudio siendo más grande y sólido de su tipo' y advirtió sobre importantes implicaciones en la forma en que las universidades evalúan a los estudiantes.

Concluyó:

'Según las tendencias actuales, la capacidad de la IA para exhibir un razonamiento más abstracto aumentará y su detectabilidad disminuirá, lo que significa que el problema de la integridad académica empeorará'.

Los expertos que revisaron el estudio lo llamaron una sentencia de muerte para los exámenes para llevar a casa o los cursos no supervisados.

La profesora Karen Yeung, becaria de derecho, ética e informática de la Universidad de Birmingham, dijo:

'La publicación de esta prueba de control de calidad del mundo real demuestra muy claramente que las herramientas de IA generativa disponibles de forma gratuita y abierta permiten a los estudiantes hacer trampa en exámenes caseros sin dificultad para obtener mejores calificaciones, pero ese tipo de trampas es prácticamente indetectable'.

El estudio sugiere que las universidades podrían incorporar material de IA generado por los estudiantes en las evaluaciones.

El profesor Etienne Roesch, otro autor de la investigación, añadió:

'Como sector, debemos acordar cómo esperamos que los estudiantes utilicen y reconozcan el papel de la IA en su trabajo. Lo mismo ocurre con el uso más amplio de la IA en otras áreas de la vida para prevenir una crisis de confianza en toda la sociedad'.

La profesora Elizabeth McCrum, vicerrectora de educación de Reading, indicó que la universidad se está 'alejando' del uso de exámenes en línea para llevar a casa t desarrollando alternativas que aplican el conocimiento en entornos 'de la vida real, a menudo relacionados con el lugar de trabajo'.

The Guardian la citó diciendo:

'Algunas evaluaciones ayudarán a los estudiantes a utilizar la IA, enseñándoles a utilizarla de forma crítica y ética; desarrollar su alfabetización en IA y equiparlos con las habilidades necesarias para el lugar de trabajo moderno. Otras evaluaciones se completarán sin el uso de IA'.

En las notas finales del estudio, los autores sugirieron que podrían haber utilizado IA para preparar y escribir la investigación.

Dijeron:

'¿Lo considerarías -trampa-? Si lo considerara una -trampa- pero negáramos haber usado GPT-4 (o cualquier otra IA), ¿cómo intentaría demostrar que estábamos mintiendo?'

Un portavoz de Reading confirmó a The Guardian que el estudio 'definitivamente fue realizado por humanos'.

Contenido patrocinado

Artículos relacionados