Al igual que Anthony Salcito de Microsoft , Bowen y otras personas influyentes en la educación superior promocionaron la capacidad de AI de hacer que el análisis de datos y las iniciativas de éxito estudiantil sean aún más fáciles al extraer los datos más procesables.
Estos son algunos de los puntos clave de la serie de videos de EdSurge Live:
Los datos deberían facultar a los estudiantes
Candace Thille, profesora asistente de educación en la Stanford Graduate School of Education, dijo a los espectadores de EdSurge que los datos extraídos del trabajo de los estudiantes deberían utilizarse para crear experiencias de aprendizaje personalizadas .
Cuando las escuelas utilizan entornos en línea alimentados con inteligencia artificial, los líderes deben usar su modelado predictivo para crear una trayectoria de aprendizaje que se pueda compartir con los estudiantes para apoyar la creación de una ruta de aprendizaje.
Algoritmos transparentes respaldan el éxito
Para garantizar el éxito generalizado en este uso de la inteligencia artificial, los modelos y algoritmos precisos que usan las universidades no se pueden encerrar en sistemas propietarios. Deben ser impugnables, revisables por pares y transparentes, de modo que la toma de decisiones pedagógica sea hecha por las personas que generalmente toman esas decisiones, dijo Thille.
"Solo decir 'Confíe en nosotros'. Nuestros algoritmos funcionan, "Argumentaría que eso es alquimia, eso no es ciencia", agregó Thille.
La transparencia permite a los educadores y asesores comprender lo que el sistema les dice . En un esfuerzo por respaldar una toma de decisiones clara, Mark Milliron, cofundador y director de aprendizaje en Civitas Learning, dijo que su compañía busca delinear los predictores utilizados en cada algoritmo.
"Literalmente enumeraremos los predictores más potentes y su puntaje relativo y poder en el modelo, por lo que la gente tiene claro que esta es la razón por la trayectoria que muestra, para que la gente pueda entender qué variables están impactando eso", dijo Milliron.
Comprender que la IA todavía puede tener prejuicios humanos
Debido a que los sistemas predictivos a menudo parecen ser una IA que simplemente arroja una conclusión, Thille dijo que los educadores o asesores que trabajan con los datos podrían considerar que es objetiva o verdadera por su valor nominal.
Sin embargo, ella recomendó que los líderes recuerden a los educadores que hay una persona que escribió el algoritmo necesario para el cálculo, por lo que aún puede haber sesgos.
Según Thille, una forma de garantizar que este sesgo disminuya es utilizar datos extremadamente representativos.
"El objetivo aquí será determinar cuáles de esas decisiones les damos a los humanos para hacer, y cuáles podemos dejar que un sistema haga autónomamente", dijo.