1
...
23 24 25

(Borrador)

2023-03-28

Creo que este curso he acumulado suficiente experiencia experiencia como para emitir un primer veredicto sobre el impacto que está teniendo el uso de IA en la enseñanza de programación y qué actitud tomar como profesor frente a este fenómeno.

Vaya por delante que estamos en un momento en que se está haciendo una apuesta muy fuerte por esta tecnología sin que nadie tenga demasiado claro si realmente va a dar los resultados esperados y, como es natural, en esta situación de incertidumbre proliferan gurús que ofrecen seguridad a cambio de "like y suscribe" o de un espacio en la contraportada de la Vanguardia. Como no es mi caso, lo que voy a contar aquí es mi experiencia y mis conclusiones personales, totalmente sesgadas y probablemente no trasladables a otras situaciones.

Cuando estaba en el instituto y nos explicaban física, recuerdo que me costó comprender la cinemática, así que empecé a preguntar a algunos compañeros si la entendían, a lo que todos respondían "Sí, claro". Pero entonces me dedicaba a preguntarles por detalles concretos "¿Por qué el tiempo es al cuadrado?" "¿Qué significa aquí Vo?" y, por lo menos en mi recuerdo, resultó que ninguno realmente la había entendido a fondo. Ahí me di cuenta de que tenía un "listón" diferente para autoevaluarme.

Cuento esto porque creo que está en el corazón del problema que estamos teniendo en enseñanza con el uso de la IA generativa ¿cómo sé que realmente comprendo algo?

El problema

La situación es la siguiente. El profesor pone una tarea de programación a un alumno. Éste en vez de resolverla por su cuenta le traslada el problema a una IA. La IA responde con un código que muestra técnicas que el alumno no conoce y por supuesto no domina. El alumno hace pasar el código que produce la IA como su propia solución y el profesor no tiene forma de rebatirlo porque no existe un test 100% fiable que permita determinar si un código está generado por IA o no.

Algunos dirían ahí que el problema es del profesor, porque "hay que plantear retos diferentes en la era de la IA y bla bla". Y yo estaría de acuerdo si en esta "era de la IA" las empresas que producen los chatbots confiasen tanto en ellos que se responsabilizasen de sus resultados. Dicho de otra forma, el día que el código producido por una IA provoque que a un paciente se le opere del brazo izquierdo en vez de del derecho y la demanda vaya contra Open AI o Anthropic, yo defenderé que los futuros programadores tengan sólo una idea aproximada de cómo funciona un código generado, pero mientras los responsables últimos sean ellos, lo responsable es enseñarles a ser igual de competentes o más que las herramientas que usen.

Y es que, tal como lo veo, la situación que estamos teniendo ahora mismo en programación no es tan diferente de lo que está sucediendo con la conducción autónoma, donde como los sistemas no son 100% fiables es necesario que haya una persona "vigilando" lo que hace el coche, entre otras cosas porque además va a ser ella la responsable en caso de accidente. Visto así, todos esos programadores que están "vibecodeando" son el equivalente informático a los conductores que van mirando el móvil mientras el sistema de conducción autónoma de Tesla les lleva el coche, sólo que cuando el sistema falla las consecuencias son una app que no hace lo que debe y no un amasijo de hierros con el desafortunado dentro.

Aquí hay mucho que desempacar, que dirían los americanos, así que intentaré ir por partes.

Producir no es lo mismo que aprender. Por mucho que en formación profesional se intente acercar al alumno al entorno productivo, los objetivos de la empresa y los del centro educativo son diferentes. Si un trabajador produce más utilizando IA generativa, probablemente la empresa preferirá que la use, independientemente de si con ello aprende más o menos. El objetivo en las aulas, en cambio, es que el estudiante aprenda, y si aprende más sin ciertas herramientas que con ellas la obligación es vetárselas.

¿Qué está pasando en las empresas?

 

¿Prohibido prohibir?

Ya soy lo suficientemente mayor para recordar cómo hace casi veinte años se presentó el primer iPhone, cómo unos años después se presentó el primer iPad y cómo de pronto el mundo se inundó de expertos que insistían en que "lo que necesitan los alumnos son más apps y tabletas en clase" y que "es irresponsable por parte de los centros educativos no se sumarse a esta tendencia porque bla bla...". Hoy en día, la mayoría de centros tiene políticas que restringen el uso del móvil en clase (y se está considerando convertir estas restricciones en ley).

En relación a esto, un argumento que dan los gurús cuando se dan estos cambios tecnológicos es que "no se pueden poner puertas al campo", porque si los chicos tienen disponible una tecnología van a usarla. Pues quizá es verdad que no se puede, pero eso no quiere decir que uno no deba manifestarse en contra y hacer todo lo posible por mitigar su impacto. Yendo al extremo, quizá no se podía parar el auge del nazismo en la Alemania de los años treinta, pero no eso no convertía votar a Hitler en algo bueno.

Lo que sucede en realidad es que la sociedad en general no actúa preventivamente. Si yo digo que una curva es peligrosa el Ayuntamiento de mi ciudad no va a hacer nada hasta que no se estrellen unos cuantos coches allí, de la misma forma que las autoridades no actuaron contra las tabacaleras hasta que existió suficiente evidencia estadística de que fumar provocaba cáncer, por mucho que hubiese gente diciendo eso desde hacía décadas.

Cuando aparece una tecnología nueva, por tanto, es imposible limitar su expansión mientras sus efectos perjudiciales no sean evidentes. En este momento tenemos chatbots haciendo dietas, chatbots dando consejos de salud, chatbots haciendo de psicólogos y chatbots resolviendo los problemas de cualquier estudiante. Muchos vemos ya que eso tiene efectos perjudiciales pero todavía falta mucho tiempo hasta que la evidencia sea suficiente. Tendrán que morir muchas personas hasta que se empiecen a regular los consejos médicos de los chatbots y los profesionales del futuro tendrán que cometer muchos errores graves antes de que se restrinja legalmente su uso durante la etapa formativa.

Una curiosidad que siempre he tenido es si las empresas que operan en ámbitos tan nuevos que no están regulados hacen el cálculo de cuánto tardarán las autoridades en reaccionar ¿tendrán una columna en el excel que calcule lo que ganarán antes de recibir las primeras multas? Pienso en casos como los de AirBnb, Glovo, Blablacar...

* La comparación todavía, son el equivalente a alguien conduciendo un coche autónomo que ni siquiera tiene el carnet de conducir.

Siguiendo la metáfora, nosotros somos la autoescuela, con la diferencia de que nosotros hasta ahora no nos sentamos con los alumnos a hacer las prácticas, sino que les dejamos hacerlas en casa, donde no tenemos forma de evitar que usen la conducción automática.

 

1
...
23 24 25
.