Evaluación Programa Software Educativo. Informe Final

Evaluación Programa Software Educativo Informe Final Enero, 2014 1 Índice Presentación..........................................................

2 downloads 130 Views 4MB Size

Recommend Stories


SOFTWARE EDUCATIVO PARA
SOFTWARE EDUCATIVO PARA EL REFORZAMIENTO DE LA LECTURA Y ESCRITURA EN NIÑOS CON SÍNDROME DE DOWN Proyecto del Trabajo de Grado para optar al título de

Dpto. Nacional de Software Educativo
Dpto. Nacional de Software Educativo. Software: Jugando con las palabras.  Recoge  un  total  de  16  lecturas  dramatizadas  (cuentos,  poesías,  tr

Informe final
www.pwc.com Informe final Contratación BID-006-2013 “Contratación de Servicios Profesionales de una Firma Consultora para Realizar el Diagnóstico del

Story Transcript

Evaluación Programa Software Educativo

Informe Final

Enero, 2014

1

Índice

Presentación....................................................................................................................... 4 I. Descripción General del Estudio ......................................................................... 5 II. Resumen Ejecutivo del trabajo .......................................................................... 7 III.

Resultados de ejecución de grupos focales ................................................ 8

IV.

Elaboración de instrumentos y pilotaje ....................................................... 26

IV.1 Elaboración de cuestionarios piloto ....................................................................... 26 IV.2

V.

Pilotaje de los instrumentos .................................................................................. 28

Aplicación de encuestas Web a Jefes de UTP ............................................. 33

V.1

Estado aplicación Encuestas Web ........................................................................ 34

V.2

Contactos jefes de UTP ............................................................................................ 34

V.3

Encuestas web no respondidas por jefe de UTP .............................................. 36

VI.

Aplicación de las encuestas presenciales a docentes ............................ 39

VI.1

Estado aplicación encuesta docentes ................................................................. 39

VI.2

Encuestas docentes no aplicadas ........................................................................ 40

VI.3

Controles ....................................................................................................................... 41

VII.

Análisis de resultados ....................................................................................... 42

VII. 1. Análisis descriptivo de las encuestas aplicadas ............................................ 42

VIII.

Resultados de diagnóstico Plataformas ................................................... 95

VIII.1

Caracterización Socio-Económico y Cultural ................................................ 95

VIII.2

Uso de la Plataforma .......................................................................................... 117

VIII.3

Resultado SIMCE y Uso de Plataforma ....................................................... 138

VIII.4

Resultado Nivel de logro según grupo y plataforma ............................. 142

IX. Conclusiones ........................................................................................................ 167 X. Anexos ..................................................................................................................... 170 Anexo 1: Pauta Grupo Focal .................................................................................... 171 Anexo 2: Transcripciones de Grupos Focales (Word).................................... 176 Anexo 3: Archivos de audio de Grupos Focales ............................................... 177 Anexo 4: Listado establecimientos pilotaje ....................................................... 178 2

Anexo 5. Justificación y detalle de intentos de contacto a jefes de UTP por encuesta no realizada o incompleta. ............................................................ 179 Anexo 6. Detalle encuesta web respondida por personal distinto al jefe de UTP.............................................................................................................................. 196 Anexo 7. Justificación y detalle de intentos de contacto a docentes por encuesta no realizada. ............................................................................................... 207 Anexo 8. Resultados descriptivos .......................................................................... 220 Anexo 9. Resultados según puntaje SIMCE ...................................................... 263 Anexo 10. Resultados de Uso de las Plataformas ........................................... 273 Anexo 11. Distribución Acumulada de Puntaje SIMCE .................................. 293 Anexo 12. Bases de Datos Encuesta Web y Tablet ........................................ 297 Anexo 13. Libro de códigos...................................................................................... 298

3

Presentación El presente documento, elaborado por el Centro de Microdatos de la Universidad de Chile, corresponde al Informe Final para el monitoreo y seguimiento de la ejecución de la Evaluación del Programa Software Digital, encargado por el Ministerio de Educación. Con el fin de dar cuenta de las acciones ejecutadas para realizar el levantamiento y análisis de la información recabada a través de los distintos actores involucrados en el programa, el presente informe entrega un resumen ejecutivo del trabajo realizado, los resultados de la aplicación de grupos focales, la descripción de la elaboración y pilotaje de instrumentos, la aplicación de los cuestionarios tanto a Jefe de UTP como docentes, el análisis descriptivo de las encuestas aplicadas y de los resultados de las pruebas aplicadas a través de las plataformas educativas.

4

I.

Descripción General del Estudio

El objetivo general del programa “Software Educativo” es entregar un modelo de intervención para el mejoramiento de los aprendizajes en los sectores de inglés y/o matemáticas en estudiantes de 3° a 8° básico de establecimientos municipales y particulares subvencionados del país en el año 2013. Los objetivos específicos del programa son: -

Proveer de Recursos Educativos Digitales que apoyen el aprendizaje y la práctica pedagógica en los sectores de matemáticas e inglés.

-

Proveer de asesoría para la instalación y uso de los Recursos Educativos Digitales entregados.

-

Mejorar los aprendizajes en los sectores involucrados en la intervención.

El presente estudio tiene como objetivo general levantar información cualitativa y cuantitativa sobre los resultados a nivel de productos, resultados intermedios e impacto generados por las plataformas del programa “Software Educativo”, ejecutado entre agosto de 2012 y diciembre de 2013. Los objetivos específicos del estudio son: 

Caracterizar institucionalmente a los establecimientos ejecutores del programa y a sus alumnos beneficiarios según variables socio-económicas y culturales.



Caracterizar la visión que tienen los directores, jefes de UTP y docentes respecto a las estrategias implementadas por los establecimientos en la planificación y uso pedagógico de las plataformas y al grado de integración de dichas estrategias en las aulas en los sectores de matemáticas e inglés.



Generar información específica respecto a la percepción que tienen los Jefes de UTP y los docentes de los establecimientos del programa, sobre la calidad de las

5

plataformas, medida, entre otras dimensiones, en términos de la oportunidad de su entrega, su utilidad pedagógica, la facilidad de uso, etc. 

Determinar y analizar el tiempo semanal destinado por los alumnos al uso de las distintas plataformas.



Evaluar el efecto que las distintas plataformas han tenido en los niveles de logro en los aprendizajes en matemáticas e inglés entre los alumnos de 3º a 8º básico al cabo de un año de implementación del programa.



Caracterizar y analizar, a nivel de establecimientos del programa, los resultados en las pruebas SIMCE de matemáticas de 4° y 8° básico y los cambios que se presentan antes y después de su implementación

Para la ejecución del estudio se propuso la aplicación de distintas metodología para recabar la información necesaria que permitiera abordar los objetivos planteados. El presente informe da cuenta del proceso completo llevado a cabo para recabar información, así como el análisis de esta información y de las evaluaciones realizadas a los alumnos a través de las plataformas educativas.

6

II.

Resumen Ejecutivo del trabajo

-

Para comenzar con el levantamiento de información de las plataformas educativas, se realizaron 4 grupos focales (uno por cada programa de software educativo), cuyo objetivo fue levantar información cualitativa para apoyar la elaboración de los cuestionarios que serían aplicados para el levantamiento de la información cuantitativa.

-

Los grupos focales se realizaron en las regiones Metropolitana, de Valparaíso y Arica y Parinacota. En estos participaron jefes de UTP y docentes.

-

Luego se procedió a la elaboración de los instrumentos y la posterior realización de un piloto para probarlos y validarlos. Este piloto se aplicó en 13 establecimientos de la Región Metropolitana. En 11 de ellos, se entrevistó al jefe de UTP y al docente, mientras que en 2 establecimientos, solo fue posible entrevistar al docente.

-

El cuestionario para docentes contó con 65 preguntas, mientras que el de jefes de UTP, con 51.

-

Para la aplicación definitiva, la muestra inicial fue de 485 establecimientos. No se pudo tomar contacto con 2 colegios. 1 establecimiento tenía cursos desde 7° básico.

-

La encuesta docente se aplicó exitosamente al 93% de los casos.

-

La encuesta web fue respondida completa por 423 casos y hubo 6 que la dejaron

incompleta.

8

casos

fueron

respondidos

por

un

miembro

del

establecimiento que no corresponde al jefe de UTP y cuyo cargo no calzaba con el perfil ni los conocimientos requeridos. 1 caso fue respondido por un jefe de UTP cuyo colegio imparte clases desde 7° básico. El número final de casos corresponde a 420.

7

III.

Resultados de ejecución de grupos focales

III.1 Descripción Para comenzar con el levantamiento de información de las plataformas educativas, se realizaron 4 grupos focales (uno por cada programa de software educativo), cuyo objetivo fue levantar información cualitativa para apoyar la elaboración de los cuestionarios que serían aplicados para el levantamiento de la información cuantitativa. A través de este proceso, se pudo conocer la apreciación subjetiva que tenían los actores vinculados al programa software digital sobre el uso, la oportunidad de entrega y la utilidad técnica y pedagógica de esta herramienta tecnológica, pudiendo obtener información de importancia para identificar la percepción y valoración que los usuarios (jefes de UTP y docentes) tienen de las plataformas y así detectar las fortalezas y aspectos a mejorar en estas aplicaciones. Esto, siempre teniendo en cuenta el grado en que estas plataformas aportan al mejoramiento de los aprendizajes de los estudiantes. A partir de lo anterior, se creó una pauta basada en los objetivos del estudio y las preguntas directrices que se desprendían de ellos, lo que permitió la creación de una serie de preguntas que fueron trabajadas junto con la contraparte y utilizadas posteriormente en los grupos focales. La construcción de esta pauta contó con la asesoría continua de la división de estudio de Mineduc y se fue pasando por distintas etapas de revisión y mejoramiento continuo, para lograr la pauta que fue finalmente aplicada en los cuatro grupos focales. A partir de las metodologías propuestas, se diseñó y ejecutó 4 grupos focales con Jefes de UTP y docentes participantes del programa. Los grupos focales fueron realizados en la Región Metropolita, Valparaíso y Arica y Parinacota, centrando cada focus en la revisión de una plataforma en particular. Asimismo, en cada uno de ellos fue convocado el jefe de UTP y un docente que trabajaba con la plataforma en el establecimiento

seleccionado.

De

esta

manera,

los

grupos

focales

quedaron

distribuidos tal como se señala en la siguiente tabla:

8

Tabla 1. Distribución de grupos focales

Plataforma Mi clase English Discoveries Gal&Leo Little Bridge

Asignatura Matemática Inglés Matemática Inglés

Lugar Santiago Santiago Arica Viña del Mar

Asistentes 8 personas 8 personas 10 personas 7 personas

Para el análisis de grupos focales se utilizó la técnica cualitativa denominada Teorización Anclada (Grounded Theory), la cual tuvo por finalidad desarrollar teorías por medio de la observación in situ de los fenómenos. Su objetivo fue crear categorías teóricas a partir de los datos y analizar las relaciones relevantes que hay entre ellas (Taylor, S. y R. Bogdan, 1996). El análisis de la información se realizó a través del Método Comparativo Constante, el cual combina la codificación inductiva de categorías con una comparación simultánea de las unidades de significado obtenidas en la recolección de información. De este modo, a medida que una nueva unidad de significado se seleccione para su análisis, se compara

con

las

demás

y

se

agrupa

consecuentemente

(categorizándose

y

codificándose) con otras unidades de significado. El método se desarrolló a través de las siguientes fases: 1) Codificación inductiva de categorías. 2) Refinamiento de categorías. 3) Exploración de las relaciones y patrones entre las categorías. 4) Integración de los datos

9

III.2 Resultados A continuación se presenta un análisis descriptivo de la información recabada a través de los grupos focales. 1. Instalación software educativo. A partir del análisis de los grupos focales, se concluye que los actores educativos que participaron de estos se enteraron de la existencia del programa software educativo de diversas maneras. Algunos de ellos, plantearon que fue por medio de personas externas al establecimiento, como es la Dirección Provincial, la Coordinación de Enlaces del Ministerio de Educación y el Coordinador Regional. Mientras que otro grupo de participantes afirmaron haberse enterado de la existencia del software educativo mediante miembros de su establecimiento escolar, como Director(a), Jefe de UTP o coordinador de Enlaces. Cabe destacar que solo un participante planteó haberse enterado de la existencia del software a través de sus propias indagaciones. Al respecto, afirmó que estaba al tanto de que este recurso de aprendizaje era utilizado en otros países y que era de gran utilidad para los estudiantes, razón por la cual le sugirió a la directora y a la jefa de UTP implementarlo en el establecimiento educacional. Por otra parte, al consultarles en qué periodo comenzó la implementación del programa software educativo en su establecimiento, la mayoría de ellos afirmó que se efectuó durante el año 2012. Mientras que un grupo minoritario de participantes afirmó que el software educativo se implementó en su establecimiento educacional durante el año 2013. A lo anterior, es importante agregar que algunos participantes afirmaron haber recibido información para la implementación del programa software educativo, sin embargo, éste aún no se había implementado en su establecimiento escolar al momento de realizar los grupos focales (octubre 2013).

10

Finalmente, resulta interesante destacar que aquellos docentes y Jefes de UTP pertenecientes a establecimientos educacionales donde actualmente no se está implementado el software, mostraron interés en que éste pueda ser ejecutado en su establecimiento en el corto plazo. 2. Visión actores educativos acerca del grado de integración de los contenidos del software educativo en el contexto escolar. Visión sobre grado de conocimiento de los actores educativos. A partir del análisis de los grupos focales, se observó que la mayoría de los actores educativos

pertenecientes

a

establecimientos

educacionales

donde

se

está

implementado el programa software educativo, manifestaron que existe un alto grado de conocimiento de éste por parte de los miembros de su establecimiento educacional. Siguiendo con este punto, algunos de los participantes afirmaron que es frecuente que docentes de su establecimiento les planteen la necesidad que el programa software educativo se extienda a sus respectivos cursos. Finalmente, en relación a la percepción de los participantes acerca del grado de conocimiento de los miembros de su establecimiento sobre el programa software educativo, es interesante destacar que desde el punto de vista de algunos de ellos, el nivel de conocimiento acerca de éste, tiene directa relación con el cargo que se ocupe dentro del establecimiento y sus responsabilidades asociadas. Visión sobre grado de compromiso de los actores educativos En relación a este punto, la mayoría de los participantes afirmó tener un alto compromiso hacia el programa software educativo, y a su vez, percibir un alto grado de compromiso por parte de los demás miembros de su establecimiento escolar, lo cual –sostienen- se manifiesta en la instauración de una lógica de trabajo en equipo, en la que están claramente definidas las responsabilidades de cada uno en cuanto al programa.

11

Visión grado de involucramiento (interés) de los actores educativos. Se apreció que la mayoría de los participantes, tenían un alto grado de interés en la plataforma software educativo, pues planteaban que ésta constituye una herramienta que fomenta habilidades de diversa índole en los estudiantes, además de ayudarlos a afianzar conocimientos de una manera atractiva, dado el alto grado de familiarización que tienen los estudiantes con los formatos digitales. Es importante destacar además, que a juicio de los participantes, el grado de interés hacia el software, depende, entre otros factores, de la percepción que se tenga acerca de las características propias de éste, en términos de diseño, estructura y contenidos. Diseño de las plataformas. En cuanto a los aspectos de diseño, algunos de ellos, mencionaron que están muy conscientes que resulta difícil definir el diseño adecuado del software, debido a que los estudiantes a los cuales está dirigido éste están en el límite entre ser niños y adolescentes. Este tema fue sobresaliente especialmente en el grupo focal dirigido a evaluar el software de inglés “English Discoveries”. También en relación a los aspectos de diseño del software educativo, algunos participantes del grupo focal dirigido a evaluar el software Matemática Gal & Leo, señalaron la necesidad de que éste sea más acorde a la edad de los estudiantes, ya que a juicio de ellos, éste posee pocas ilustraciones y mucho contenido escrito, lo que provoca que los estudiantes se desorienten al momento de utilizarlo. Siguiendo con las apreciaciones de los actores educativos respecto al diseño del software educativo, quienes participaron del grupo focal que tuvo por objetivo evaluar el software Little Bridge, manifestaron que éste resulta ser muy “lúdico” para los estudiantes, puesto que tiene un formato similar a los juegos virtuales que acostumbran utilizar éstos para entretenerse. Estructura de las plataformas.

12

En cuanto a la estructura de las plataformas, las apreciaciones de los actores educativos fueron diversas y estaban en función de las particularidades de cada una de éstas. En lo que respecta a la estructura del software educativo English Discoveries, muchos participantes manifestaron que éste constituye una fuente de recursos de gran utilidad. Algunos de las secciones mejor evaluadas fueron el glosario y el diccionario. A partir de lo expresado por los participantes, otros aspectos destacados de la estructura del software English Discoveries, fueron: las evaluaciones iniciales que trae éste, -las cuales permite a los docentes identificar el nivel en que se encuentra cada estudiante-, y la posibilidad que le otorga a los alumnos, de ver si su respuesta está correcta o incorrecta, lo que los refuerza positivamente y les permite trabajar a su propio ritmo. Por su parte, en relación a la estructura del software educativo Mi Clase, algunos participantes proponen que éste incluya reportes donde el estudiante pueda observar su avance. Por otro lado, en cuanto al software educativo Little Bridge, la mayoría de los actores educativos que participaron en el grupo focal, tuvo una opinión positiva acerca de la estructura de éste. Al respecto, uno de los aspectos mejor evaluados fue que el software viene ordenado por unidad y nivel, lo que a juicio de ello, les facilita encontrar el contenido que se está impartiendo en clases. También plantean como un punto destacado del software Little Bridge, el hecho que esté estructurado de lo más básico a lo más complejo. Finalmente, en relación a la estructura del software Little Bridge, los participantes también plantearon como un punto destacado, que éste permite cargar pruebas, sin embargo, algunos de ellos plantearon que no han podido hacerlo.

Así también,

reconocen como un aspecto positivo las guías descargables en formato pdf que contiene este software. Mientras que en relación a la estructura del software educativo de Matemática Gal & Leo, los actores educativos manifestaron que uno de los problemas que presenta éste

13

es que a veces no guarda lo realizado por los estudiantes, lo cual genera en éstos frustración.

Otro aspecto mencionado respecto a la estructura del software Gal & Leo, es que éste resulta ser “poco intuitivo” para los estudiantes, lo cual a juicio de ellos, se aprecia principalmente al ingresar al diagnóstico inicial. Así también, en relación a la estructura del software educativo Gal & Leo, algunos de los participantes hicieron referencia a que éste opera lentamente, razón por la cual requiere de la presencia permanente del docente a modo de guía. Como aspecto positivo de la estructura del software Gal & Leo, los asistentes destacaron

la

capacidad

que

tiene

éste

de

amoldarse

a

las

necesidades

y

requerimientos de los docentes, pues les permite elegir qué sección utilizar (videos, de ejercicios, etc.). Así también, consideran un aspecto muy positivo los reportes que trae esta plataforma. Además el software Gal & Leo, al igual que el software Little Brigde, da la posibilidad de cargar pruebas online, sin embargo es un recurso que utilizan poco los docentes entrevistados.

Contenidos de las plataformas. En cuanto a los contenidos de las plataformas digitales evaluadas, la mayoría de los participantes

manifestaron

que éstas permiten

promover habilidades en

los

estudiantes. En relación a los contenidos del software de matemática Mi clase, manifestaron como un hecho positivo el que éste, a diferencia de otros software, contenga no solo actividades y ejercicios, sino también materia. Así también, hicieron referencia a que este software está separado por objetivos, lo que permite que el docente pueda elegir qué objetivo quiere trabajar con el estudiante.

14

Del mismo modo, plantean que en el software Mi clase es posible vislumbrar los ejes de aprendizaje, aunque destacan que los contenidos no están separados en función de éstos, lo cual desde la perspectiva de algunos de los participantes, ha generado dificultades. Finalmente, algunos participantes manifestaron que una falencia que presenta el software de matemática Mi clase, es que presenta errores en algunas actividades. Específicamente hicieron referencia a un error en la unidad de geometría y a errores en el diseño del software. Esto último, ha provocado que los estudiantes puedan avanzar al ejercicio siguiente sin haber realizado los anteriores. En cuanto al software de inglés Little Bridge, un aspecto destacado por parte de los docentes participantes, es que les permite trabajar los contenidos de éste, teniendo como base el nivel en el cual se encuentran los estudiantes, dado que incorpora la realización de una prueba de diagnóstico. Este hecho, a juicio de ellos, les ha permitido tomar en consideración los distintos ritmos de aprendizaje que tienen los estudiantes. También en relación al software educativo de inglés Little Bridge, los participantes mencionaron como un punto positivo, el hecho de que éste contiene una gran cantidad de juegos educativos, los cuales entre otras cosas, fomenta en los estudiantes valores como la responsabilidad. Finalmente, en cuanto a los contenidos del software English Discoveries, desde el punto de vista de los participantes, algunas actividades resultan ser

rutinarias y un

tanto tediosas para ciertos cursos.

3. Grado de incorporación de las plataformas en las planificaciones Al consultarle a docentes y jefes de UTP que participaron en los grupos focales acerca del grado de incorporación de los contenidos del software a su planificación, las respuestas fueron diversas. Algunos participantes del grupo focal que tuvo por objetivo evaluar el software educativo English Discoveries, plantearon que han seleccionado de éste ciertos

15

contenidos y objetivos de aprendizaje para incorporarlos en su planificación. Además hicieron hincapié en que este proceso de selección requiere de mucha dedicación, lo cual a veces les resulta complejo, dada la gran cantidad de tareas que deben realizar al interior del establecimiento. Por su parte, algunos docentes participantes del grupo focal que tuvo por finalidad evaluar el software de Matemática Mi clase, afirmaron que no han incorporado éste a su planificación, dado que no cuentan con el tiempo suficiente para hacerlo. Mientras que otro grupo de participantes planteó que les resultó fácil la incorporación de los contenidos de éste a su planificación. Así también, resulta interesante destacar que un Jefe de UTP afirmó que en algún momento dio la instrucción a los docentes de su establecimiento de que incorporaran el software a la planificación, puesto que de no ser así, se exponía a consecuencias negativas. Finalmente, la mayoría de los participantes que evaluaron el software Little Bridge, afirmaron incorporar éste en su planificación, con el objetivo de apoyar el uso de Tics dentro de la asignatura. Además, hicieron referencia a la importancia que tiene para ellos revisar los contenidos que están pasando en la asignatura antes de incluir el software en la planificación.

4. Uso pedagógico de la plataforma a. Principal uso del software. Al consultarle a docentes y jefes de UTP acerca del principal uso que le otorgan al software educativo, la mayoría de ellos señaló que lo utiliza como un recurso complementario a la asignatura, el cual les permite reforzar contenidos. Cabe destacar que a juicio de algunos participantes, el uso del software está en función del nivel de cada estudiante, el cual se determina a partir de la prueba inicial de diagnóstico que ofrecen algunas plataformas. b. Lugar(es) más frecuente(s) de uso del software. Así también, mediante los grupos focales se apreció que los lugares de mayor frecuencia de uso del software, son los laboratorios de computación (sala de Enlaces).

16

También es importante señalar que en algunos establecimientos se trabaja el software en el horario de clases y en otros fuera del horario de clases, como por ejemplo en taller SIMCE. Es importante señalar a partir de lo observado en los grupos focales, que solo en un establecimiento escolar se intentó implementar el software mediante el uso de notebook en las salas de clases. Resulta relevante destacar además, que según lo reportado por algunos participantes, es frecuente que los computadores del establecimiento escolar presenten problemas de conexión a internet. Otro problema señalado con frecuencia por los participantes, es la escasa cantidad de laboratorios y/o computadores para la cantidad de estudiantes del establecimiento escolar. Así también, otro aspecto señalado por algunos docentes y jefes de UTP, fue el mal estado de algunos laboratorios de computación y/o computadores del establecimiento escolar. Por otro lado, también es importante señalar que solo un pequeño grupo de docentes y jefes de UTP manifestaron que sus estudiantes utilizan el software en sus casas, siendo las principales razones de esto: porque no confían en que los estudiantes realicen solos las actividades, porque algunos estudiantes no cuentan en sus casas con conexión a internet y/o computadores y porque consideran indispensable que el estudiante cuente con la guía del docente para realizar las actividades del software. c. Personal a cargo de guiar el uso del software. Así también, cabe señalar que a juicio de algunos participantes, resulta de gran Importancia para el uso del software la figura del encargado de Enlaces, la cual está presente solo en algunos establecimientos educacionales. Al respecto, se propone aumentar sus funciones.

17

5. Percepción de Jefes de UTP y docentes de los establecimientos sobre la calidad de las plataformas. a. Oportunidad de entrega e inicio de operación de la plataforma en el establecimiento educacional. Al consultarles a los participantes acerca de su participación en las capacitaciones del software educativo, algunos de ellos manifestaron haber asistido. Además, sostuvieron que en ellas se hizo referencia entre otras cosas al modo en que debía utilizarse éste. Un actor educativo agregó que desde la fecha de capacitación hasta la implementación del software, pasó harto tiempo, y que esto obedeció a decisiones tomadas por su establecimiento educacional. Respecto a los actores educativos que participaron en la(s) capacitación(es), los participantes manifestaron que por lo general asistían jefes de UTP y docentes. En cuanto a las opiniones de los participantes que asistieron a las capacitaciones, éstas fueron diversas. Algunos de ellos plantearon que éstas fueron motivantes y claras. Mientras que otro grupo de asistentes hizo referencia a que éstas no incluyeron una etapa posterior de seguimiento. Desde el punto de vista de los participantes, un obstáculo para la implementación del programa software educativo se produce cuando la persona a cargo de su implementación es relativamente nueva en el establecimiento escolar, puesto que en este caso resulta probable que no haya podido asistir a capacitación, lo que hace que su conocimiento acerca del software sea bajo. Finalmente, tanto docentes como jefes de UTP, también hicieron referencia al grado de responsabilidad que les compete a ellos para que las capacitaciones puedan resultar efectivas y provechosas. Al respecto hicieron referencia a su principal obstáculo: la falta de tiempo.

18

b. Facilidad de uso de la plataforma para docentes y estudiantes. A partir del análisis de los grupos focales se desprende que en general las plataformas son de fácil uso para los estudiantes, principalmente debido a que éstos están acostumbrados a los formatos digitales. Así también, los actores educativos plantearon que para la mayoría de los docentes las plataformas son de fácil uso, entre otras cosas porque han recibido capacitaciones en materia digital. Cabe destacar que solo un actor educativo que participó en el grupo focal donde se evaluó el software educativo de matemática Gal & Leo, planteó que la forma de ingresar a la plataforma resulta complejo para sus estudiantes, dado que son muy pequeños y les costaba anotar el código entregado por la empresa para que cada alumno ingresara. c. Percepción sobre servicios post venta empresas que administran plataformas La mayoría de los actores educativos manifestaron que el contacto con los administradores del software se da principalmente de manera no presencial, es decir, vía telefónica o por correo electrónico. Otro punto destacado es que la mayoría de los participantes señalaron que en general los administradores del software han manifestado buena disposición a solucionar problemas y resolver inquietudes. Así también, la mayoría de ellos, señaló la necesidad de que se incorpore mayor seguimiento presencial por parte de los administradores del software. Por último, algunos de los participantes señalaron que han tenido problema con las claves de acceso.

19

d. Percepción

sobre

relación

con

Ministerio

en

esta

de

post

instalación de la plataforma. Algunos participantes plantearon que el grado de involucramiento del Ministerio de Educación en la etapa de post instalación de la plataforma ha sido bajo. Afirman que principalmente se ha hecho presente en los establecimientos educacionales mediante consultas y avisos respecto al nivel de avance en el software.

6. Razones que están a la base del tiempo semanal destinado por los alumnos al uso de las distintas plataformas. Respecto a la frecuencia de uso de las plataformas evaluadas, algunos participantes manifestaron que en su establecimiento escolar está estipulado los días y horarios de uso de la plataforma, lo cual a juicio de ellos, facilita su uso. Algunos docentes participantes hicieron referencia a que una de las dificultades para el uso del software es el escaso tiempo con el que cuentan, dado la multiplicidad de tareas que tienen que realizar en el establecimiento educacional. Es importante señalar también, que a juicio de los participantes, otros factores que inciden en la frecuencia de uso del software, son los conocimientos previos de los docentes y estudiantes respecto al software.

7. Facilitadores, obstaculizadores y sugerencias por parte de Jefes de UTP y Docentes, para el funcionamiento del programa. a. Elementos facilitadores del funcionamiento del programa en el establecimiento educacional 

Características del software educativo

Uno de los aspectos mejor evaluados de las plataformas educativas, es que la mayoría de éstas presenta los contenidos por niveles (de lo más básico a lo más complejo), lo

20

cual permite al docente pasar los contenidos acorde a las características de los estudiantes. 

Contexto establecimiento educacional

Uno de los aspectos claves para que el programa software educativo pueda implementarse de manera adecuada en el establecimiento escolar, es que éste cuente con un equipamiento e infraestructura adecuada. Al respecto, a partir de los grupos focales se concluyó en este sentido, que resulta fundamental que exista en los establecimientos la misma cantidad de computadores que estudiantes. Así también, a partir de lo expuesto por docentes y jefes de UTP que participaron en los grupos focales, otro elemento que facilita la implementación del software, es que el establecimiento escolar cuente con una adecuada conexión a internet y con un Encargado de Enlaces. En relación a este último punto, algunos participantes manifestaron también que es central aumentar las funciones asociadas a este cargo. 

Grado de involucramiento actores educativos

Así también, se concluyó a partir de los grupos focales, que otro facilitador para el funcionamiento del programa software educativo, es el alto grado de interés que generan estas plataformas en la mayoría de los docentes y estudiantes. Así también, los participantes mencionaron que otro elemento que facilita la adecuada implementación del software, es la buena organización por parte de los distintos miembros de los establecimientos educacionales. 

Administradores del software

Cabe destacar que la mayoría de los participantes hicieron referencia a que los administradores del software manifiestan buena disposición a resolver inquietudes que surgen por parte de los actores educativos a cargo de implementar el software. Este aspecto sin duda, constituye un facilitador del proceso de implementación de las plataformas.

21

b. Elementos obstaculizadores del funcionamiento del programa en el establecimiento educacional 

Características del software educativo

Respecto a los elementos obstaculizadores relacionados con las características del software, estos son de diversa índole. En el caso del software de Matemática Mi clase se destacan los errores en algunas secciones/ejercicios de éste. Así también, se destaca el hecho de que este software permite pasar a la siguiente pregunta sin que el alumno haya contestado las actividades anteriores. Por su parte, los participantes al grupo focal donde se evalúo el software de inglés Little Bridge manifestaron que una debilidad que presenta éste es que resulta difícil encontrar unidades del software donde esté contenida la temática y la materia. Mientras que un obstáculo expuesto por los participantes del grupo focal donde se evaluó el software de Matemática Gal & Leo, es que los estudiantes no están acostumbrados a realizar trabajo lineal, secuencial. 

Contexto establecimiento educacional

A partir de lo expuesto en los grupos focales, uno de los principales obstáculos para la implementación de las plataformas es contar con pocos laboratorios de computación y/o cantidad de computadores en relación a la cantidad de estudiantes del establecimiento escolar. Al respecto, algunos participantes manifestaron que el hecho de que dos o más alumnos trabajen en un mismo computador, tiene impactos negativos en el proceso de aprendizaje de los alumnos, ya que el docente se ve imposibilitado de registrar el avance de cada uno de éstos en la plataforma. Otro obstáculo a la implementación del software son las dificultades con la conexión a internet, tema que fue recurrente en la mayoría de los participantes.

22

Por su parte, otro obstáculo a la implementación, específico de las plataformas de inglés, es que hay establecimientos que no cuentan con audífonos para todos los estudiantes. Otros obstáculos guardan relación con la calidad de los computadores. Algunos de ellos, presentan dificultades para instalar java o bien son muy lentos. Finalmente, otro obstáculo tiene relación con las características de la sala de computación. Muchas veces sucede que los implementos se pierden y cuesta controlar a los estudiantes para que no ingresen a páginas que no corresponden. 

Grado de involucramiento actores educativos

Otro aspecto que a juicio de los participantes obstaculiza el buen funcionamiento del software educativo es la resistencia por parte de algunos docentes hacia la utilización del software educativo. Así también, otro obstáculo reportado por los estudiantes es no contar con tiempo suficiente para poder utilizar el software. 

Administradores del software

Respecto a los obstáculos que se presentan para la implementación de las plataformas relacionados con los administradores del software, se encuentra la falta de seguimiento presencial a los establecimientos escolares. c. Sugerencias para el uso del programa 

Características del software educativo

Respecto a la plataforma English Discoveries: Algunos participantes que evaluaron el software educativo English Discoveries, plantaron como propuesta que los estudiantes puedan emitir en éste sus opiniones y sugerencias. En cuanto a la plataforma de Matemática Mi clase. Una sugerencia fue personalizar más el software, mediante la incorporación de chat.

23

Así también, algunos participantes plantearon la necesidad de incluir reportes donde el estudiante pueda ver su avance. Otra propuesta es que el docente pueda elegir el nivel de dificultad del ejercicio. En relación a la plataforma Little Bridge. Una sugerencia fue que el estudiante pueda ver sus avances. Otra propuesta es que la plataforma esté más alineada con contenidos de los planes y programas, ya que a juicio de los participantes, esto permite ahorrar tiempo al profesor. Por último, en cuanto a la plataforma de matemática Gal & Leo, proponen que las pruebas sean imprimibles. Así también proponen que el software guarde constantemente lo realizado por los estudiantes. Otra sugerencia es que la plataforma contenga menos texto escrito. Se propone incluir más ilustraciones. Finalmente, otra sugerencia hace referencia a que éste fuese más amigable para los estudiantes. 

Contexto establecimiento educacional

En general, resulta fundamental que los establecimientos escolares que implementan el Programa Software Educativo, cuenten con la infraestructura y el equipamiento necesario para ello, es decir, posean una cantidad adecuada de laboratorios de computación, de computadores, óptima conexión a internet, etc.  En

Grado de involucramiento actores educativos general

los

participantes

consideraban

que

resulta

fundamental

que

los

establecimientos escolares que implementan este programa, cuenten con la figura del encargado de Enlaces. Así también algunos de ellos, sugieren ampliar el rol del coordinador de Enlaces.

24



Administradores del software

En términos generales, lo participantes plantean a modo de recomendación, que haya mayor seguimiento presencial por parte de los administradores de Enlaces. Otra recomendación apunta a que la(s) capacitación(es) se lleve(n) a cabo en la época de verano.

25

IV.

Elaboración de instrumentos y pilotaje

Las etapas que se siguieron para la realización de los cuestionarios fueron similares para ambos cuestionarios, comenzando por la elaboración del cuestionario piloto, aplicación de este y la construcción de la versión final del cuestionario. IV.1 Elaboración de cuestionarios piloto El primer paso consistió en la definición de la cantidad de módulos con los que contaría el cuestionario. Estos módulos fueron construidos en función de los objetivos del estudio y definidos como categorías de sistematización de las dimensiones que se quería abordar a través de las preguntas para responder a los objetivos presentados. De este modo, tanto el cuestionario para docentes como el para jefes de UTP quedaron conformados por 6 módulos que se presentan en las siguientes tablas: Tabla 2. Módulos cuestionario Docentes

Módulo

Contenido

Descripción

A

Caracterización del Entrevistado

B

Uso de tecnologías

C

Instalación del programa “Software Educativo” en su establecimiento

D

Uso del programa

E

Integración del Educativo” en el aula

F

Valoración

de

la

“Software

utilidad

del

Involucra todas las variables inherentes a cada docente, considerando la información personal y profesional, así como la información laboral. Corresponde a la tenencia, frecuenta de uso y habilidades en la utilización de herramientas tecnológicas por el docente. Se recoge información sobre el conocimiento, implementación y capacitación en el software. Se consulta sobre cantidad de tiempo y forma en que ha sido usado el software por los alumnos. Se indaga sobre la forma en que los docentes han integrado la plataforma a sus clases. Corresponde a la valoración

26

programa

que los docentes entregan sobre la utilidad del programa en sus alumnos.

Tabla 3. Módulos cuestionario Jefes de UTP.

Módulo A

Contenido

Descripción

Caracterización del Entrevistado

Involucra todas las variables inherentes a cada jefe de UTP, considerando personal

la

y

información

profesional,

así

como la información laboral.

B

Uso de tecnologías

Corresponde

a

la

tenencia,

frecuenta de uso y habilidades en

la

utilización

de

herramientas tecnológicas por el jefe de UTP.

C

Infraestructura,

tecnología

y

conectividad del establecimiento

Se recoge información sobre la cantidad

y

calidad

computadores

del

de

los

colegio,

junto con el tipo y calidad de la conexión que estos tienen.

D

Instalación

del

“Software

Educativo”

programa en

su

establecimiento

Se

indaga

en

conocimiento,

torno

al

implementación

y capacitación del jefe de UTP en el software.

E

Uso del programa

Se consulta sobre cantidad de tiempo y forma en que ha sido usado

el

software

por

los

alumnos.

F

Valoración y utilidad del programa

Corresponde

a

la

valoración

que los jefes de UTP entregan sobre la utilidad del programa

27

en los alumnos.

Una vez determinados los módulos, se definieron las preguntas que contendrían. Estas se elaboraron a partir de las variables, velando por que las preguntas pudieran ser contestadas tanto por docentes y jefes de UTP, según correspondiera, que utilizaban el programa como también por aquellos que le dieron poco o ningún uso. Además, se orientó el cuestionario pensando que las preguntas fueran sencillas de responder y que no quedara demasiado extenso. Es así como el cuestionario para docentes quedó compuesto por 65 preguntas, mientras que el de jefes de UTP contó con 51 preguntas. Una vez aprobados todos los módulos elaborados para el levantamiento de la información, se procedió a construir los cuestionarios preliminares, velando por mantener la coherencia entre las versiones finales de los cuestionarios, de modo que ambos quedaran alineados. Durante el proceso de construcción de preguntas y sus respectivas categorías, se llevaron a cabo constantes revisiones por parte del equipo a cargo del proyecto y la contraparte, lo cual implicó continuas reformulaciones en la cantidad, redacción y contenido de las preguntas.

IV.2

Pilotaje de los instrumentos

La realización de la prueba piloto se enmarcó dentro de la etapa del diseño de instrumentos y tuvo por objetivo asegurar la validez de éstos. Entendiendo validez como el grado en que una medición empírica refleja adecuadamente el significado real de los conceptos que se quieren medir (Earl, 2000). Durante el proceso de pilotaje de las encuestas se evaluaron distintos aspectos ligados tanto al contenido como al proceso de aplicación de éstas. Dichos aspectos se pueden apreciar en la siguiente tabla.

28

Tabla 4. Aspectos evaluados en aplicación piloto.

Aspectos evaluados 1. Contenido de las encuestas

Módulos Preguntas

Respuestas

Lenguaje Redacción Tipo de preguntas Cantidad de preguntas Lenguaje Redacción Tipo de preguntas

2. Tiempo de duración 3. Principales dificultades del proceso de aplicación de las encuestas

La prueba piloto de las encuestas se desarrolló del 7 al 15 de noviembre del 2013 y se llevó a cabo en una muestra de 13 establecimientos de la Región Metropolitana1. En 11 de ellos se entrevistó al jefe de UTP y al docente, mientras que en 2 establecimientos, solo fue posible entrevistar al docente. Toda la información obtenida mediante la realización de la prueba piloto fue sintetizada y analizada por el equipo coordinador del Estudio Software Educativo Enlaces del Centro de Microdatos, con el fin de ser integrada a las versiones finales de ambas encuestas.

IV.3

Resultados prueba piloto encuestas

A continuación se muestran en la siguiente tabla los principales resultados obtenidos de la prueba piloto tanto en lo que respecta al contenido de las encuestas como al proceso de aplicación de éstas.

1

En el anexo 4 se presenta la lista de establecimientos en los cuales se realizó esta aplicación piloto.

29

Tabla 5. Resultados aplicación piloto.

Aspectos evaluados 1. Contenido de las encuestas

Principales Hallazgos

Módulos

Preguntas

Lenguaje

Redacción

Aspectos evaluados

Durante la aplicación de la prueba piloto se apreció que los módulos de las encuestas cumplieron el objetivo de agrupar preguntas con temáticas comunes. Este hecho facilitó la comprensión de las preguntas por parte de los entrevistados. A partir de la prueba piloto se determinó reemplazar algunos conceptos de las preguntas de las encuestas, por otros que resultasen más cercanos para los sujetos entrevistados. A partir de la información recopilada en la prueba piloto, se determinó formular algunas preguntas de manera distinta, lo cual ayudaría a una mejor comprensión de éstas por parte de los sujetos entrevistados. Principales Hallazgos

Tipo de preguntas

-Luego de la aplicación de la prueba piloto se consideró adecuado mantener la estructura general de ambas encuestas (preguntas cerradas) pues resultó ser funcional para los objetivos del estudio. - Luego del pretest se decidió incorporar a las encuestas una pregunta abierta de “Observaciones Finales”. -A partir de la información recopilada en la prueba piloto, se concluyó transformar algunas preguntas de respuesta única en preguntas de respuesta múltiple. -Luego de la aplicación piloto se determinó incluir al lado de cada pregunta de respuesta múltiple de la encuesta dirigida a Jefes de UTP, la siguiente indicación para el entrevistador: “recuerde leer cada opción de respuesta y esperar que

30

Cantidad de preguntas

Lenguaje Respuestas

Redacción

Aspectos evaluados Tipo de respuestas

la persona indique si corresponde o no”. A partir del proceso de pilotaje se consideró que no era necesario eliminar ni agregar nuevas preguntas a ambas encuestas, pues se observó que la cantidad de preguntas permitían abarcar todos los objetivos de investigación del estudio. A partir de la prueba piloto se determinó reemplazar algunos conceptos de ciertas opciones de respuesta, por otros que resultasen más cercanos para los sujetos entrevistados. A partir del proceso de pilotaje se decidió reformular aquellas opciones de respuesta que no eran excluyente entre sí. Principales Hallazgos -Luego de la aplicación piloto se decidió incorporar la alternativa de respuesta “no recuerda”, sobre todo en aquellas preguntas donde se consultaba por el(los) año(s) de un determinado hecho. -Posterior a la aplicación piloto se decidió agregar en algunas preguntas la opción de respuesta “Otra razón. Especifique”_______

2. Tiempo de duración

-La aplicación de la prueba piloto arrojó que el tiempo mínimo de duración de las encuestas es de 20 minutos y el tiempo máximo de 1 hora, según el nivel de uso dada a la plataforma por parte de los actores educativos. Esta información fue de gran relevancia para las capacitaciones dirigidas al equipo de entrevistadores.

31

Aspectos evaluados 3. Principales dificultades del proceso de aplicación de las encuestas

Principales Hallazgos -Algunos lugares donde se realizaron las encuestas eran muy ruidosos, lo cual dificultó la adecuada aplicación de las encuestas. -Hubo establecimientos donde no fue posible realizar una de las entrevistas concertadas, producto de contingencias acaecidas en éstos. -Algunos jefes de UTP y docentes no tenían mucho conocimiento del software educativo Enlaces al momento de la entrevista. Principales razones: eran nuevos en el cargo o bien el establecimiento educacional implementaba muy poco el software. -Hubo algunas interrupciones durante el proceso de aplicación de las encuestas en algunos establecimientos educacionales. -Algunos entrevistados interrumpieron el proceso de aplicación de la encuesta cuando no recordaban cierta información necesaria para responder una determinada pregunta. -Algunas veces el Director del establecimiento educacional no comunicaba con claridad a docente y jefe de UTP horario de aplicación de la encuesta piloto. Esto provocó que algunos docentes no tuviesen una buena disposición al momento de ser encuestados. Los aspectos mencionados anteriormente representan situaciones acaecidas durante el proceso de pilotaje y fueron mencionadas al equipo de entrevistadores durante las capacitaciones. Además, muchas de estas situaciones fueron incluidas como “estados” en el dispositivo electrónico en el cual se cargaría la encuesta dirigida a jefes de UTP.

32

V.

Aplicación de encuestas Web a Jefes de UTP

El contacto con los jefes de UTP se realizó una vez que el director del establecimiento se encontraba al tanto del estudio. El objetivo primordial del contacto con aquellos fue expresarles la importancia de la encuesta y la necesidad de que esta fuera respondida. Para poder realizar el contacto con los establecimientos, directores, jefes de UTP y docentes, se requirió de la instalación de un call center que se hiciera cargo de estas tareas. A través de este, se recabó la información requerida para llevar a cabo el proceso. En la Tabla 6, se detalla el orden en que se llevaron a cabo las campañas y el objetivo perseguido. Tabla 6. Descripción campañas de llamados.

Orden de ejecución de las campañas 1

Campaña

Objetivo de campaña

Campaña 1

2

Campaña 2

3

Campaña 4

4

Campaña 3

Contactar a Director o Subdirector de los establecimientos educativos de la muestra para entregarles información acerca del estudio y, a su vez, solicitar el nombre del jefe de UTP y profesor de aula a cargo del software educativo. Contactar al jefe de UTP de cada establecimiento educativo de la muestra, para solicitar su correo electrónico y así poder enviar posteriormente el usuario y clave de la encuesta web. Contactar a los docentes de aula de los establecimientos educativos de la muestra para agendar un horario y fecha en el cual poder visitar su colegio para aplicarle presencialmente la encuesta correspondiente. Contactar a jefes de UTP que no hayan respondido la encuesta web dentro de los plazos estipulados para ello, de modo de conseguir que respondieran la encuesta en un nuevo plazo fijado.

5

Campaña 5

Realizar un control telefónico de un porcentaje de las encuestas en terreno realizadas por los encuestadores, de modo de asegurar que éstas fueron realizadas, siguiendo los parámetros de calidad (puntualidad, trato, profesionalismo, etc.) estipulados para ello.

33

V.1

Estado aplicación Encuestas Web

El lunes 18 de noviembre, se puso a disposición de los Jefes de UTP la aplicación para dar respuesta a las encuestas a través de la web. La primera encuesta fue respondida el mismo lunes 18, siendo la última ingresada el día 23 de diciembre. Habiendo transcurrido más de 5 semanas del inicio de la encuesta, se obtuvo un 87,5% de entrevistas respondidas y una reducida cantidad de encuestas iniciadas pero no terminadas (ver Tabla 7)2. Tabla 7. Estado final de aplicación Encuesta web.

Estado Terminadas sin reparos

Cantidad de encuestas

%

414

85,7%

9

1,9%

En curso4

6

1,2%

Rechazo (director o del

6

1,2%

No iniciadas

47

9,9%

Total válido

4835

100%

Casos terminados retirados de la muestra3

mismo jefe de UTP)

V.2

Contactos jefes de UTP

Como parte del procedimiento para lograr respuestas a la encuesta por parte de los jefes de UTP, se realizaron distintos contactos detallados a continuación.

-

Contacto campaña 2. Como se indicó previamente, esta campaña tuvo por objetivo realizar un primer contacto con los jefes de UTP, solicitando su correo

2

En el anexo 5, se presenta la justificación y detalle de los intentos de contacto realizados a los jefes de UTP para lograr una tasa de respuesta mayor. 3 Ver punto III.3 para más detalles sobre los 9 casos. 4 Se respondió al menos un módulo, pero no todos los disponibles. 5 De los 485 colegios correspondientes a la muestra, se debe considerar que dos establecimientos nunca pudieron ser contactados, intentándose en todas las etapas del proceso.

34

electrónico e invitándolo a responder la encuesta, explicándole los objetivos del estudio y la importancia de este.

-

Mail con contraseña. El segundo contacto se realizó a través del mail entregado por los jefes de UTP. En este caso se envió un correo electrónico personalizado a cada jefe de UTP indicando las características del estudio, la importancia de este y las claves y procedimientos para ingresar a la encuesta, entre otros aspectos.

-

1er mail reiterando la necesidad de respuesta. Se envió a todos los jefes de UTP que no hubieran respondido la totalidad de la encuesta un mail reiterando los datos del correo anterior y enfatizando la importancia de responder la encuesta.

-

2do mail reiterando la necesidad de respuesta. Se envió a todos los jefes de UTP que no hubieran respondido la totalidad de la encuesta un segundo mail reiterando los datos del correo anterior, enfatizando la importancia de responder la encuesta y la fecha de término del proceso.

-

Contacto campaña 3. Como se indicó previamente, esta campaña tuvo por objetivo contactar telefónicamente a los jefes de UTP que no hubiesen respondido la encuesta o la tuvieran incompleta, para enfatizar la importancia del estudio. En esta campaña, el jefe de UTP podía responder de manera telefónica la encuesta si es que así lo deseaba. Esta campaña se extendió hasta el último día de plazo definido para responder la encuesta.

-

3er mail reiterando la necesidad de respuesta. Se envió a todos los jefes de UTP que no hubieran respondido la totalidad de la encuesta un mail reiterando los datos del correo anterior, enfatizando la importancia de responder la encuesta y la fecha de término del proceso.

-

Mail a Directores. Se envió un mail a los directores cuyo correo se encontraba disponible indicándoles la importancia del estudio y solicitando dar las facilidades necesarias al jefe de UTP para que pudiera responder.

35

A partir de los casos sin respuesta o incompletos, se realizó una clasificación para facilitar su comprensión6. Como se observa en la Tabla 8, en la mayoría de los casos no se pudo tener contacto telefónico con el jefe de UTP para motivarlo a responder la encuesta, solo se logró contacto en la campaña 2.

Tabla 8. Clasificación casos sin respuesta o incompletas. Encuesta jefes de UTP.

Código 1 2 3 4 5 6 7

V.3

Descripción Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de UTP. Jefe de UTP no disponible por licencia médica. Rechazo: el jefe de UTP se niega a participar o contestar la encuesta web. Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente. Sacados de la muestra: casos en que en campaña 1 no se pudo realizar contacto. Jubilado: el jefe de UTP jubiló este año por lo tanto el colegio no cuenta con este cargo y no hay nadie en su reemplazo. Se realiza contacto con jefe de UTP, pero no se indica que se vaya a responder la encuesta. Total

Cantidad 32 4 6 14 2 2 2 62

7

Encuestas web no respondidas por jefe de UTP

Al analizar las respuestas presentes en la encuesta web, se observó 54 casos en que esta no habría sido respondida por el jefe de UTP del establecimiento. Esto se analizó a partir de lo indicado en la pregunta N°6 de la encuesta (ver

Ver anexo 5 para detalles de los intentos de contacto telefónico en cada caso. Dentro de estos 62 casos, se consideran los dos establecimientos que no pudieron ser contactados en todo el proceso. 6 7

36

Tabla 9).

37

Tabla 9. Pregunta 6, encuesta jefes de UTP.

Pregunta 6

Alternativas

¿Cuál es su cago actual en el establecimiento? Nota: Si usted ejerce más de un cargo en el establecimiento, marque aquel para el que ejerce una mayor cantidad de horas

Director Subdirector Jefe de UTP Orientador(a) Inspector General Otro. Especifique________

El procedimiento para resolver estas situaciones fue contactar al jefe de UTP o al personal correspondiente (en caso de colegios que no cuentan con aquella figura) y consultar por qué otro miembro del establecimiento respondió la encuesta. A partir la información recabada, se estableció una clasificación de los casos, lo que se observa en la tabla siguiente. Tabla 10. Descripción y cantidad de casos no respondidos por el jefe de UTP.

Código 1 3 4

6 7

Cantidad Descripción de casos El profesional es jefe de UTP a la vez que tiene 19 otras responsabilidades en el establecimiento Responde un profesional que no corresponde al jefe de UTP, ya que este le derivó las claves 8 para responder. La clave fue enviada a un miembro del 1 establecimiento distinto al jefe de UTP. Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra 21 reemplazándolo o cumpliendo las mismas funciones o similares. 5 No se ha logrado tener contacto telefónico. Total general

54

A partir de la información antes analizada, y en conjunto con la contraparte, se definió restar 8 casos de la muestra ya que quien respondió la encuesta no corresponde al

38

perfil requerido y la información dada no se condice con los lineamientos de la encuesta8. Además, se restó un caso de las encuestas web terminadas. Este caso corresponde a un colegio que cuenta, desde este año, solo con cursos a partir de 7° básico, por lo que no corresponde que sea parte del estudio. Según lo revisado anteriormente, la tabla definitiva de casos que son parte del estudio queda de la siguiente manera: Tabla 11. Datos encuestas terminadas jefes de UTP.

Estado Terminadas En curso Encuestas retiradas de la muestra Total final

Cantidad de encuestas 423 6 9 420

En el anexo 6, se presenta una tabla con la información detallada de cada caso en que la encuesta no fue respondida por el jefe de UTP. 8

39

VI.

Aplicación de las encuestas presenciales a docentes

Luego de haber tomado contacto con el director, se tomó contacto con el docente de la asignatura con el fin de explicarle los objetivos, invitarlo a participar y concertar una cita para ejecutar la entrevista. En los casos que el docente no aceptó participar, se procedió a contactar a otro docente de la asignatura y nivel correspondiente, en caso que lo hubiera. El contacto se realizó en la campaña 2, el objetivo principal de esta era poder concretar una visita con el docente. En este llamado, era posible detectar si el software educativo no había sido implementado en el establecimiento. En caso de no haber sido implementado, se concertaba una fecha en que se pudiera tomar la encuesta de manera telefónica. VI.1

Estado aplicación encuesta docentes

A partir del jueves 28 de noviembre, se iniciaron las visitas a los establecimientos, con el objetivo de entrevistar al docente en el horario previamente acordado por la vía telefónica. La primera encuesta fue respondida el día jueves 28 de noviembre, siendo la última respondida el día 23 de diciembre de manera telefónica. Se obtuvo un 93% de encuestas completadas (ver Tabla 12).

40

Tabla 12. Estado de Recopilación de información Entrevista Presencial

Estado Terminadas

Cantidad de encuestas 450

Único docente, con licencia médica o no disponible durante el período de

% 93,2% 1,4%

7

terreno Rechazo participar (director) No iniciadas (problemas de contacto con profesor) Sacadas de la muestra por no corresponder Total válido

VI.2

2 23 1 4839

0,4% 4,8% 0,2% 100%

Encuestas docentes no aplicadas

Hubo 35 casos en que no fue posible realizar la encuesta al docente respectivo10. Estos casos se debieron a diversas situaciones, pero en la gran mayoría tiene que ver con problemas de contacto con el docente. Esto se observa en la Tabla 13, donde se presenta la clasificación realizada de los casos y la cantidad de cada uno de estos. No se realizaron contactos extra en los casos en que los docentes no pudieran o no quisieran participar.

De los 485 colegios correspondientes a la muestra, se debe considerar que dos establecimientos nunca pudieron ser contactados, intentándose en todas las etapas del proceso. 10 En el anexo 6, se presenta una tabla con la descripción detallada de cada caso en que no se concretó la encuesta, indicando la cantidad y tipo de intentos realizados. 9

41

Tabla 13. Clasificación casos sin encuesta docente.

Descripción

Cantidad

Rechaza participar.

2

Se concertó encuesta telefónica pero el profesor nunca estuvo disponible.

10

No se puede hacer contacto en campaña 4.

6

Profesor con licencia.

7

No se pudo agendar una visita. No se pudo concretar la campaña 1, nunca se pudo tomar contacto. Se saca de la muestra.

6

No hay docente disponible en el establecimiento para poder entrevistar.

1

No se concretó visita por problemas del establecimiento.

1

2

Total VI.3

35 Controles

Para confirmar la veracidad dela información recopilada se realizó un proceso de control sobre el 10% de los docentes encuestados. Este proceso fue absolutamente satisfactorio, no reportándose caso alguno en que la información se encontrara adulterada.

42

VII.

Análisis de resultados

En el presente capítulo se mostrarán los principales resultados obtenidos tras la aplicación de los cuestionarios a la muestra de jefes de UTP y Docentes participantes de aplicación del programa software educativo. Los resultados descriptivos de cada una de las preguntas realizadas se presentan en el anexo 7. VII. 1. Análisis descriptivo de las encuestas aplicadas 1. Descripción muestra entrevistada Tal como se ha señalado en los apartados anteriores, las entrevistas diseñadas por el equipo del CMD debían ser aplicadas a una muestra de 485 establecimientos, en los cuales se contactaba al Jefe de UTP, para entregar toda la información de modo que pudiera respondiera la encuesta a través de una plataforma web, y un Docente que hubiese utilizado la plataforma, del mismo establecimiento. Con este docente se concertaba una fecha para ser visitado por un entrevistador, de modo que se pudiera aplicar la encuesta de manera presencial en el establecimiento, en dispositivo Tablet especialmente diseñado con la encuesta. En la tabla 14 se presenta la cantidad de Jefes de UTP y Docentes entrevistados, indicando el número, porcentaje por región del país y la cobertura en función de la muestra solicitada por la contraparte. Como se observa en la tabla, la cantidad final de Jefes de UTP que respondieron la encuesta web fue 420 y docentes entrevistados 450, siendo similar el porcentaje de Jefe de UTP y Docente entrevistado para cada región.

43

Tabla 14. Región establecimientos entrevistado.

Región Establecimiento

Jefe de UTP Frec.

%

Docente

Cobertura

Región de Arica y Parinacota

8

1,9%

80,0%

Región de Tarapacá

4

0,9%

100,0%

Región de Antofagasta

12

2,9%

Región de Atacama

14

Región de Coquimbo

Frec.

%

Cobertura

10

2,20%

100,0%

3

0,70%

75,0%

92,3%

12

2,70%

92,3%

3,3%

93,3%

15

3,30%

100,0%

20

4,8%

87,0%

22

4,90%

95,7%

Región de Valparaíso

49

11,7%

89,1%

48

10,70%

87,3%

Región Metropolitana

83

19,7%

85,6%

92

20,40%

94,8%

Región del Libertador

33

7,9%

86,8%

36

8,00%

94,7%

Región del Maule

38

9,0%

84,4%

42

9,30%

93,3%

Región del Bíobío Región de la Araucanía

82

19,5%

86,3%

83

18,50%

87,4%

25

5,9%

83,3%

29

6,50%

96,7%

Región de los Ríos

9

2,1%

81,8%

11

2,40%

100,0%

29

6,9%

90,6%

31

6,90%

96,9%

4

0,9%

66,7%

6

1,30%

100,0%

10

2,4%

90,9%

10

2,20%

90,9%

100%

87%

450

100%

93%

Región de los Lagos Región de Aysén Región de Magallanes Total

420

En cuanto a la dependencia a la que pertenecían los establecimientos de los Jefes de UTP y Docentes entrevistados, tal como se observa en la tabla 15, hay una mayor proporción de Establecimientos Municipales, quienes concentran aproximadamente un 62% de la muestra entrevistada. Sin embargo, la cobertura de acuerdo a la muestra entregada fue mayor en los establecimientos Particular Pagado.

44

Tabla 15. Dependencia administrativa del establecimiento entrevistado.

Dependencia Establecimiento

Jefe de UTP

Docente

Frec.

%

Cobertura Frec.

%

Cobertura

Municipal

264

62,9%

85,2%

278

61,8%

89,7%

Particular Subvencionado

156

37,1%

89,1%

172

38,2%

98,3%

Total

420

100%

87%

450

100%

93%

En relación a la plataforma utilizada, en la tabla 16 se señala la cantidad de docentes y jefes de UTP entrevistados, por software con el cual se trabajó. Es así como se puede observar que la mayor proporción de docentes y jefes de UTP entrevistados utilizó la plataforma de la empresa Gal&Leo, y la menor proporción fue el software de la empresa Arquimed. Tabla 16. Establecimientos entrevistados según plataforma utilizada.

Jefe de UTP Plataforma utilizada

Frec.

%

Docente Cobertura

Frec.

%

Cobertura

Arquimed Ediciones SM Gal&Leo

69

16,4%

86,3%

74

16,4%

92,5%

120

28,6%

89,6%

124

27,6%

92,5%

131

31,2%

82,9%

149

33,1%

94,3%

Mi clase

100

23,8%

88,5%

103

22,9%

91,2%

Total

420

100%

86,6%

450

100

92,8%

45

2. Caracterización Entrevistados a. Información personal A continuación se presenta de modo descriptivo información personal de los jefes de UTP y Docentes entrevistados. En cuanto al título profesional de Jefes de UTP y Docentes entrevistados, se puede observar en la tabla 17, que la mayoría de ellos posee el título de Profesor de Educación General Básica. Tabla 17. Título profesional entrevistado.

Título profesional Entrevistados Educador de Párvulos Profesor de Educación General Básica

Jefe de UTP

Docente

Frecuencia Porcentaje Frecuencia Porcentaje 15

3,6%

0

0,0%

304

72,4%

325

72,4%

Profesor de Educación Media

75

17,8%

68

15,1%

Educador Diferencial

16

3,8%

1

Profesor de Inglés

0

0,0%

48

Profesor de Ed. Física

3

0,7%

0

0,0%

Psicopedagogo

2

0,5%

0

0,0%

Otro

5

1,2%

7

1,6%

Total

420

100%

449

0,2% 10,7%

100%

Al desagregar la información por sector de la plataforma con que se trabajó, es posible observar en la tabla 18 que en el caso de matemáticas, un 96% de los docentes poseía título de profesor de educación general básica, mientras que en inglés este porcentaje es bastante inferior (42,1%), ya que también se presenta un alto porcentaje de docentes con título de profesor de Educación Media e inglés.

46

Tabla 18. Títulos profesional docentes entrevistados por sector

Inglés

Título profesional Entrevistados

Matemáticas

Frecuencia Porcentaje Frecuencia Porcentaje

Educador de Párvulos Profesor de Educación General Básica

83

42,1%

242

Profesor de Educación Media

64

32,5%

4

1,6%

0,0%

1

0,4%

24,4%

0

0,0%

Educador Diferencial

0

0

Profesor de Inglés

48

0,0%

0

0,0% 96,0%

Profesor de Ed. Física

0

0,0%

0

0,0%

Psicopedagogo

0

0,0%

0

0,0%

Otro

2

1,0%

5

2,0%

Total

197

100%

252

100%

Al consultar a los docentes si poseen un postítulo de mención, más de la mitad de ellos (56%) señala que sí tienen estos estudios. Tabla 19. Docentes con postítulo de Mención.

¿Cuenta con alguna mención? Frecuencia Porcentaje Sí

251

55,9%

No

198

44,1%

Total

449

100%

Al desagregar esta información por sector de la plataforma, es posible observar que el porcentaje de docentes que señala poseer mención es similar en inglés y matemáticas.

47

Tabla 20. Docentes con postítulo de Mención, por sector.

¿Cuenta con alguna mención? Inglés Matemáticas Frecuencia Porcentaje Frecuencia Porcentaje Sí

107

54,3%

114

57,1%

No

90

45,7%

108

42,9%

197

100%

252

100%

Total

Del porcentaje de docentes que señala poseer postítulo de mención (56%), un 74% sería en las asignaturas de inglés o matemáticas, que son justamente en las cuales están focalizadas las plataformas. Tabla 21. Docente, especialidad de postítulo de mención.

Especialidad Mención

Frecuencia Porcentaje 105

41,8%

Mención en Matemáticas

81

32,2%

Mención Lenguaje y Comunicación

20

8,0%

Mención en Ciencias

9

3,6%

Mención en Historia

5

2,0%

Mención en Religión

4

1,6%

Mención en Trastornos de Aprendizaje

8

3,2%

Mención en Tecnología

3

1,2%

Mención en Primer Ciclo

6

2,4%

Mención en Inglés

Otra mención Total

10 251

4% 100%

En las encuestas, también se les consultó a los Jefes de UTP y Docentes sobre la realización de estudios de postítulo. En la tabla 22 se presenta el porcentaje de ellos que tendría este tipo de estudios.

48

Tabla 22. Entrevistado con postítulo

Jefe de UTP

Docente

Frecuencia Porcentaje Frecuencia Porcentaje 306 195 43,3% 72,9% 114 255 56,7% 27,1%

Posee postítulo Sí No Total

420

100%

450

100%

Se puede observar que es mayor la proporción de Jefes de UTP que de Docentes con este tipo de estudios, lo que podría estar relacionado al tipo de funciones que cumple cada uno en el establecimiento. Esto además, esto es consistente con la temática de los estudios de postítulos realizados, ya que en el caso de los Jefes de UTP, están más relacionadas con Gestión y Dirección escolar y Currículum y evaluación, mientras que en el caso de los docentes son relativos a especialización en las asignaturas (matemáticas, inglés, etc.) Tabla 23. Temática postítulo.

Temática postítulo Entrevistados Gestión y Dirección Escolar Política Educativa Psicopedagogía o Problemas de Aprendizaje

Jefe de UTP

Docente

Frecuencia Porcentaje Frecuencia Porcentaje 55 1 43

17,9%

5

2,6%

0,3%

3

1,5%

14,0%

27

Curriculum y Evaluación

96

31,3%

Didáctica

11

4,0%

9

4,6%

1,0%

2

1,0% 15,9% 20,0%

Convivencia Escolar

3

Inglés

0

29

13,9% 14,9%

0,0%

31

Matemáticas

19

6,2%

39

Lenguaje y comunicación

20

6,5%

0

0,0%

Administración/Supervisión

30

9,8%

7

3,6%

Orientación

9

2,9%

9

4,6%

Informática educativa

5

1,6%

0

0,0%

14

4,5%

Otra temática Total

306

100%

34

17,4%

195

100%

49

b. Información laboral Respecto a la información laboral de los Jefes de UTP encuestados, tal como se muestra en la tabla 24, el 90% de ellos ejercía efectivamente la función de Jefe UTP en el establecimiento. El 10% restante, si bien, no declaró ser el Jefe de UTP del establecimiento, ejercía el rol de este en cuanto a la coordinación de la implementación del software educativo. Tabla 24. Cargo actual Jefe de UTP en el establecimiento.

Cargo Actual Jefe UTP

Frecuencia Porcentaje 10

2,4%

Subdirector

4

0,9%

Jefe de UTP

378

Orientador

2

0,5%

Coordinador académico

7

1,7%

Coordinador TIC

2

0,5%

12

2,8%

5

1,2%

Director

Docente Otro Total

420

90,0%

100%

En la encuesta de docentes se les pidió que indicaran en cuál o cuáles asignatura(s) hacía clase actualmente, pudiendo seleccionar más de una asignatura. La tabla 25, da cuenta de las asignaturas en que el docente ejercía, observando que es en matemáticas e inglés donde más docentes hacían clase.

50

Tabla 25. Docente: Frecuencia y porcentaje de docentes que hace clase en cada asignatura.

Frecuencia docentes 253

Porcentaje docentes 56,2%

Lenguaje y Comunicación

165

36,7%

Historia, Geografía y Cs. Sociales

163

36,2%

Ciencias Naturales

168

37,3%

Inglés

210

46,7%

Artes Visuales

136

30,2%

Música

102

22,7%

Tecnología

158

35,1%

40

8,9%

145

32,2%

Asignatura en que hace clase actualmente Matemáticas

Educación Física Orientación

Asimismo, se les consultó a los docentes el o los curso(s) en el que estaban haciendo clase actualmente, concentrándose las respuestas entre los cursos 4° y 8° básico. Tabla 26. Frecuencia y porcentaje de docentes de acuerdo al curso(s) en que hace clase.

1° Básico

Frecuencia docentes 118

Porcentaje docentes 26,2%

2° Básico

131

29,1%

3° Básico

260

57,8%

4° Básico

284

63,1%

5° Básico

265

58,9%

6° Básico

247

54,9%

7° Básico

241

53,6%

8° Básico

235

52,2%

36

8%

Curso en el que hace clase

Educación Media

Finalmente, en esta sección de la encuesta, se les preguntó a Jefes de UTP y docentes sobre la asistencia a cursos de perfeccionamiento Tics en los últimos dos años, siendo mayor la proporción de Jefes de UTP respecto a los docentes que ha asistido a este tipo de perfeccionamiento.

51

Tabla 27. Jefe de UTP, asistencia a cursos de perfeccionamiento en Tics en los últimos dos años.

Frecuencia Porcentaje Jefe UTP Jefe UTP 315 75,0%

Asistencia curso Tics Sí No

105

25,0%

Total

420

100%

Al desagregar la información por sector de la plataforma utilizada se puede observar que para los Jefes de UTP no habría mayor diferencia para Jefes de UTP de plataformas de inglés o Matemáticas. Sin embargo, en el caso de los docentes, hay una mayor proporción de docentes de matemáticas que han asistido a capacitaciones Tics respecto a los docentes que utilizan las plataformas de inglés, tal como se muestra en la tabla 30. Tabla 28. Jefe de UTP, asistencia a cursos de perfeccionamiento en Tics en los últimos dos años por sector

Inglés Asistencia curso Tics Sí No

Frecuencia Porcentaje Frecuencia Porcentaje Jefe UTP Jefe UTP Jefe UTP Jefe UTP 173 74,9% 142 75,1% 58 25,1% 47 24,9% 189

Total

Matemáticas

100%

231

100%

Tabla 29. Docente: Asistencia a cursos de perfeccionamiento en Tics en los últimos dos años.

Asistencia a cursos Tics Sí

Frecuencia Porcentaje Docentes Docentes 230 51,1%

No

220

48,9%

Total

450

100%

52

Tabla 30. Docente, asistencia a cursos de perfeccionamiento en Tics en los últimos dos años por sector

Inglés Asistencia curso Tics Sí No Total

Matemáticas

Frecuencia Porcentaje Frecuencia Porcentaje Docentes Docentes Docentes Docentes 147 58,3% 83 41,9% 105 41,7% 115 58,1% 198

100%

252

100%

53

3. Uso de tecnologías En el módulo B de la encuesta, se le preguntó tanto al Jefe de UTP como al docente sobre su conocimiento y uso de tecnologías. La información recogida de algunas de estas preguntas se presenta en la siguiente sección. Respecto a la tenencia de computador en el hogar, casi un 100% de Jefes de UTP declara que poseería (99%). Tabla 31. Posee computador en el hogar.

Jefe de UTP Posee computador Sí No

Docente

Frecuencia Porcentaje Frecuencia Porcentaje 415 98,7% 444 98,7% 5 1,3% 6 1,3%

Total

420

100%

450

100%

Al consultar a su vez, si contaban con conexión a Internet, si bien el porcentaje es un poco menor que la tenencia de computadores, sigue siendo un porcentaje alto (95%). Tabla 32. Posee conexión a Internet en el hogar.

Posee conexión a Internet Sí No

Jefe de UTP

Docente

Frecuencia Porcentaje Frecuencia Porcentaje 397 94,7% 426 94,7% 23 5,3% 24 5,3%

Total

420

100%

450

100%

También se les consultó sobre el uso que tenían de Internet en distintas actividades tales como búsqueda de información, enviar y recibir correos electrónicos, etc. En la siguiente tabla se puede observar que los Jefes de UTP indican un porcentaje alto en cuanto al uso diario de internet para tareas tales como búsqueda de información para apoyo a docencia, búsqueda de información general y envío de correos electrónicos. El uso es más bajo en cuanto a comunicación mediante mensajería instantánea y participación en foros de opinión.

54

Tabla 33. Jefe de UTP, frecuencia uso Internet en distintas actividades.

Nunca Buscar información de apoyo a la docencia Buscar información general Enviar y/o recibir correos electrónicos Comunicarse mediante mensajería instantánea o chat Participar en foros de opinión

Frecuencia de Uso de Internet Algunas 1 vez al 1 vez a A diario veces al mes la año semana

No sabe/no responde

0,2%

1,7%

2,4%

9,1%

86,4%

0,2%

0,5%

1,4%

1,7%

12,6%

83,6%

0,2%

0,2%

0,0%

0,5%

4,3%

94,8%

0,2%

11,4%

6,2%

5,7%

13,6%

62,4%

0,7%

18,3%

44,1%

14,3%

11,4%

10,7%

1,2%

Del mismo modo, para los docentes se observa un alto uso en las mismas tareas señaladas por los Jefes de UTP, sin embargo el porcentaje de docentes que usa a diario internet en dichas tareas es menor comparativamente con los Jefes de UTP. Tabla 34. Docente: Frecuencia uso Internet en distintas actividades.

Nunca Buscar información de apoyo a la docencia Buscar información general Enviar y/o recibir correos electrónicos Comunicarse mediante mensajería instantánea o chat Participar en foros de opinión

Frecuencia de Uso de Internet Algunas 1 vez al 1 vez a A diario veces al mes la año semana

No sabe/no responde

0,0%

0,7%

2,2%

14,0%

83,1%

0,0%

0,9%

1,1%

3,3%

22,0%

72,7%

0,0%

0,4%

0,5%

2,2%

17,1%

79,6%

0,2%

12,2%

4,7%

4,9%

12,2%

65,1%

0,9%

33,1%

22,4%

22,0%

12,7%

7,8%

2,0%

55

En esta sección se les preguntó a los docentes por sus habilidades respecto a distintas herramientas computacionales. Se observa que los docentes señalan tener muy altas habilidades para la elaboración de planillas de cálculo que permita administrar las notas de los alumnos. Luego de esto estaría la búsqueda de recursos pedagógicos en Internet. Tabla 35. Habilidades del Docente para actividades computacionales.

Nula Elaborar un documento con un procesador de texto Elaborar una planilla de cálculo para administrar las notas de los estudiantes Elaborar una presentación para proyectarla en la sala de clases Buscar en Internet recursos pedagógicos para preparar las clases

Habilidades computacionales Baja Regular Alta Muy alta

No sabe/no responde

3,1%

6,0%

29,8%

40,0%

21,1%

0,0%

0,9%

1,1%

3,3%

22,0%

72,7%

0,0%

0,4%

1,8%

6,0%

44,4%

47,3%

0,0%

0,2%

0,7%

4,0%

40,0%

55,1%

0,0%

56

4. Infraestructura, tecnología y conectividad del establecimiento En el módulo C de la encuesta a Jefes de UTP se les consultó sobre la infraestructura, tecnología y conectividad con que contaba el establecimiento. Respecto a la tenencia de computadores para el uso de los estudiantes en el establecimiento, casi el 100% de los Jefes de UTP señaló que existían (tabla 36) Tabla 36. Establecimiento tiene computadores en uso para los estudiantes

Establecimiento posee computadores para uso de los estudiantes Frecuencia Porcentaje Sí

416

No

2

Total

418

99,5% 0,5% 100%

En cuanto a la cantidad de computadores disponibles, más del 90% de los colegios poseería entre 10 y 100 computadores. Tabla 37. Cantidad de computadores disponibles y en uso para los estudiantes

Cantidad de computadores para uso de los estudiantes Frecuencia Porcentaje Menos de 10

7

Entre 10 y 20

80

20,0%

Entre 21 y 30

111

27,7%

Entre 31 y 40

59

14,8%

Entre 41 y 99

116

29,0%

Más de 100 Total

27 400

1,7%

6,8% 100%

Al separar la información sobre la cantidad de computadores en relación al sector de la plataforma utilizada, no se observan grandes diferencias entre inglés y matemáticas (tabla 38).

57

Tabla 38. Cantidad de computadores disponibles y en uso para los estudiantes, por sector

Cantidad de computadores para uso de los estudiantes Inglés Matemáticas Frecuencia

Porcentaje

Frecuencia

Porcentaje

Menos de 10

3

Entre 10 y 20

29

20,0%

51

23,4%

Entre 21 y 30

48

27,7%

63

28,9%

Entre 31 y 40

23

14,8%

36

16,5%

Entre 41 y 99

61

29,0%

55

25,2%

Más de 100

18

6,8%

Total

182

1,7%

100%

4

1,9%

9

4,1%

218

100%

Al preguntarles por la calidad de los computadores disponibles y en uso para los estudiantes, la mayoría de los jefes de UTP señaló que algunos de estos estarían buenos y algunos malos. Sin embargo, un 47% señaló que todos los computadores estarían buenos. Tabla 39. Calidad de computadores disponibles y en uso para los estudiantes

Calidad de los computadores en el establecimiento Frecuencia Porcentaje 0

Todos malos Algunos buenos y algunos malos

210

52,5%

Todos buenos

187

46,8%

Lo desconozco

3

Total

400

0,0%

0,7% 100%

Esta misma información, desagregada por asignatura, daría cuenta que en los establecimientos en que se trabajó con las plataformas de inglés, una mayor proporción de computadores estaría en buen estado.

58

Tabla 40. Calidad de computadores disponibles y en uso para los estudiantes, por sector

Calidad de los computadores en el establecimiento Inglés Matemáticas Frecuencia 0

Porcentaje

Todos malos Algunos buenos y algunos malos

90

49,5%

120

55,0%

Todos buenos

89

48,9%

98

45,0%

Lo desconozco

3

Total

0,0%

Frecuencia Porcentaje

1,6%

182

100%

0

0,0%

0 218

0,0% 100%

Se les consultó a los Jefes de UTP sobre el tipo de conexión con que contaba el establecimiento, pudiendo señalar más de un tipo de conexión. En la siguiente tabla se muestran los tipos de conexión indicados, siendo Wifi la más usada junto con Banda Ancha. Tabla 41. Tipo de conexión con que cuenta el establecimiento

Tipo de conexión con que cuenta el establecimiento Frecuencia Porcentaje Establecimientos Establecimientos Banda Ancha

261

65,9%

19

4,8%

273

68,9%

47

11,9%

Otro sistema

10

10,1%

No sabe

14

3,5%

Banda Ancha Móvil (BAM) Wifi Conmutada (por módem telefónico)

Respecto a la velocidad de conexión de los computadores, la mayoría de los Jefes de UTP reportan tener entre 2 y 9 megas, sin embargo, hay un alto porcentaje (25%), que señala no saber la velocidad de conexión.

59

Tabla 42. Velocidad de conexión de los computadores

Frecuencia Porcentaje

Velocidad Menos de 2 megas

47

11,9%

Entre 2 y 9 megas

146

36,9%

Entre 10 y 19 megas

33

8,3%

Entre 20 y 39 megas

42

10,6%

Entre 40 y 99 megas

26

6,6%

4

1,0%

Más de 100 megas No sabe Total

98

24,7%

396

100%

En cuanto a la velocidad de conexión para los distintos subsectores de las plataformas, se puede observar que es mayor el porcentaje de Jefes de UTP de plataformas de inglés el que no conoce la velocidad de conexión de sus establecimientos. Tabla 43. Velocidad de conexión de los computadores por sector

Inglés Velocidad

Matemáticas

Frecuencia Porcentaje Frecuencia Porcentaje

Menos de 2 megas

25

13,8%

22

10,2%

Entre 2 y 9 megas

60

33,2%

86

40,0%

Entre 10 y 19 megas

16

8,8%

17

7,9%

Entre 20 y 39 megas

21

11,6%

21

9,8%

Entre 40 y 99 megas

10

5,5%

16

7,4%

0

0,0%

4

1,9%

Más de 100 megas No sabe Total

49

27,1%

49

22,8%

181

100%

215

100%

Además del tipo de conexión y velocidad de esta, se les preguntó sobre la percepción de la calidad de la conexión a Internet. Ante esta pregunta casi un 60% de los Jefes de UTP señalan que esta es entre regular y muy mala.

60

Tabla 44. Calidad de la conexión a Internet del establecimiento.

Muy buena

Calidad de la conexión a Internet de los computadores en el establecimiento Frecuencia Porcentaje Establecimientos Establecimientos 27 6,8%

Buena

140

35,4%

Regular

168

42,4%

Mala

42

10,6%

Muy mala

19

4,8%

Total

396

100%

Esta misma pregunta, separada por asignatura, da cuenta que es mayor la proporción de jefes de UTP de los establecimientos que implementaron las plataformas de matemáticas, los que reportan tener conexión bueno o muy buena. Tabla 45. Calidad de la conexión a Internet del establecimiento.

Calidad de la conexión a Internet de los computadores en el establecimiento Inglés Matemáticas

Muy buena Buena

Frecuencia Porcentaje Frecuencia Porcentaje Establecimientos Establecimientos Establecimientos Establecimientos 12 15 7,0% 6,6% 79 36,7% 61 33,7%

Regular

79

43,7%

89

41,4%

Mala

18

9,9%

24

11,2%

Muy mala

11

6,1%

8

3,7%

100%

215

100%

Total

181

Finalmente, se les preguntó sobre la existencia de un encargado de Enlaces en el establecimiento, observando que un 96% de los establecimientos sí contaría con esta persona, siendo levemente superior ese porcentaje para los establecimientos que implementaron las plataformas de matemáticas.

61

Tabla 46. Existencia de Encargado de Enlaces en el establecimiento.

Establecimiento cuenta con encargado de enlaces Frecuencia Porcentaje Establecimientos Establecimientos 399 95,5%

Sí No

19

Total

418

4,5% 100%

Tabla 47. Existencia de Encargado de Enlaces en el establecimiento por sector

Establecimiento cuenta con encargado de enlaces Inglés Matemáticas



Frecuencia Establecimientos 178

No

10

Total

188

Porcentaje Establecimientos

Frecuencia Establecimientos 221 94,7% 9 5,3%

Porcentaje Establecimientos 96,1%

230

100%

100%

3,9%

62

5. Instalación del programa en los establecimientos En la encuesta también se les consultó a Jefes de UTP y docentes sobre la instalación del software en el establecimiento. Respecto a la forma en que conocieron el programa, se presentan diferencias entre ambos. Para los Jefes de UTP, la principal fuente de información sería externa, a través de Mineduc/Enlaces, mientras que para los docentes sería interna, a través del propio director del establecimiento, quien es además señalado por los propios jefes de UTP como la persona del establecimiento que recibió la invitación a participar (tabla 48). Tabla 48. Cómo supo de la existencia del programa.

¿Cómo supo del programa? Porcentaje Porcentaje Jefe UTP Docente Por Mineduc /Enlaces Por institución implementadora del software

63,8%

25,1%

14,3%

7,6%

Por medio de la página de internet Por el sostenedor del establecimiento

5,5%

3,8%

15,7%

19,8%

36,4%

51,1%

-

47,3%

No recuerda No tiene información relativa al programa

1,0%

0,0%

3,1%

3,3%

Otro

5,0%

5,1%

Por el director del establecimiento Por el jefe de UTP del establecimiento

63

Tabla 49. Jefe de UTP: Persona del establecimiento que recibió invitación a participar

Primera persona que recibió invitación a participar Frecuencia Porcentaje 20

Sostenedor(a) Director(a)

255

5,0% 63,6%

Inspector(a)

1

0,3%

Jefe de UTP

42

10,5%

Un docente

22

5,5%

Encargado de Enlaces

27

6,7%

No sabe

30

7,5%

Otro

4

1,0%

Total

401

100%

Al consultar sobre la motivación a postular al programa, la mayoría de los Jefes de UTP señalan que les motivaba el que significaba una herramienta provechosa para ser incluida como recurso del apoyo a la asignatura. Tabla 50. Jefe de UTP, motivación a postular al programa.

¿Qué los motivó a postular al programa? Frecuencia Porcentaje Significaba una herramienta provechosa para incluirlo como recurso de apoyo Significaba una herramienta provechosa para incluirlo como recurso central

305

76,1%

20

5,0%

Era relevante incorporar Tics

44

11,0%

Era gratis

13

3,2%

5

1,2%

14

3,5%

401

100%

No sabe/No recuerda Otra Total

64

Respecto a la pregunta realizada a los docentes sobre quién tomó la decisión de implementar el programa, estos señalan en mayor proporción (45%) que se les informó se implementaría. Sin embargo, un 36% señala que sí le consultaron sobre la opción de implementar y si tenía interés en ello. Tabla 51. Docente, respecto a la decisión de implementar el programa.

Decisión de implementar el programa Frecuencia Porcentaje Le consultaron sobre la opción de implementar y su interés en participar en ello No le consultaron su opinión sobre la opción de implementar

157

36,0%

41

9,4%

195

44,7%

No le informaron que se iba a implementar

23

5,3%

El programa se estaba implementando desde antes

11

2,5%

Docente tomó iniciativa respecto a implementar

5

1,2%

Otra

4

0,9%

436

100%

Le informaron que se iba a implementar

Total

Se les consultó a Jefes de UTP y Docentes sobre la primera acción realizada para implementar el programa. Ambos responden mayoritariamente que la acción fue comenzar a interiorizarse sobre el programa e incluirlo en la planificación (45%). Asimismo, hay un porcentaje importante de Jefes de UTP y docentes que señalan que también comenzaron a interiorizarse del programa pero no lo incluyeron en la planificación (36%).

65

Tabla 52. Jefe de UTP, acción realizada para implementar el programa.

¿Qué acción se realizó para implementar el programa? Frecuencia Porcentaje Dejaron la planificación del uso del programa para más adelante Comenzaron a interiorizarse del programa, pero no lo incluyeron en la planificación Comenzaron a interiorizarse del programa y lo incluyeron en la planificación

22

5,5%

116

28,9%

183

45,6%

9

2,2%

El programa no se implementó en el establecimiento

54

13,5%

Otra

17

4,3%

401

100%

No tomaron medidas para su implementación

Total

Tabla 53. Docente, acción realizada para implementar el programa.

¿Qué acción realizó Ud. para implementar el programa? Frecuencia Porcentaje Dejó la planificación del uso del programa para más adelante Comenzó a interiorizarse del programa, pero no lo incluyeron en la planificación Comenzó a interiorizarse del programa y lo incluyeron en la planificación

10

2,3%

106

24,3%

223

51,2%

No tomó medidas para su implementación

13

3,0%

El programa no se implementó en el establecimiento

66

15,1%

Otra

18

4,1%

436

100%

Total

En cuanto a la evaluación que realizan ambos sobre el compromiso que presentaron del programa distintas personas del establecimiento, las notas promedio son similares entre docentes y jefes de UTP, siendo la persona con promedio más bajo en compromiso el sostenedor.

66

Tabla 54. Evaluación del compromiso con el programa.

Evaluación del compromiso con el programa (nota 1 a 7) Promedio Promedio Jefe UTP Docente Sostenedor(a)

5,4

5,1

Director(a)

6,1

6,0

Jefe de UTP

6,0

6,0

Un docente

6,0

5,4

Encargado de enlaces

5,9

5,8

-

6,1

Docente entrevistado(a)

Tabla 55. Evaluación del compromiso con el programa, por sector.

Evaluación del compromiso con el programa (nota 1 a 7) Inglés Matemáticas Promedio Jefe UTP Sostenedor(a)

5,5

Director(a)

6,2

Promedio Promedio Jefe UTP Docente 5,4 4,9 5,3 6,0 5,9 6,1

Jefe de UTP

6,0

6,2

5,9

5,9

Un docente

6,1

5,4

5,9

5,4

Encargado de enlaces

5,9

5,8

5,9

5,7

-

6,2

-

6,0

Docente entrevistado(a)

Promedio Docente

Capacitación Sobre la asistencia a capacitación, se puede observar que está no fui muy alta para los Jefes de UTP, quienes señalan que solo un 37% de ellos asistió. Para los docentes es un poco más alta, sin embargo 4 de cada 10 docentes señala que no asistió a capacitación en el programa.

67

Tabla 56. Asistencia a capacitación.

Jefe de UTP Docente Asistió a capacitación Frecuencia Porcentaje Frecuencia Porcentaje del programa 148 253 58,0% Sí 36,9% 253 183 42,0% No 63,1% Total

401

100%

436

100%

Al desagregar esta información por plataforma, es posible observar que los docentes de inglés

asisten

en

mayor proporción

a

capacitación

que los docentes de

matemáticas. En el caso de los Jefes de UTP, no hay tanta diferencia por sector respecto a la asistencia a capacitación, sin embargo, serían los jefes de UTP de las plataformas de matemáticas quienes asisten más a capacitación. Tabla 57. Asistencia a capacitación Inglés.

Jefe de UTP Docente Asistió a capacitación Frecuencia Porcentaje Frecuencia Porcentaje del programa 61 135 70,3% Sí 34,7% 115 57 29,7% No 65,3% Total

176

100%

192

100%

Tabla 58. Asistencia a capacitación Matemáticas.

Jefe de UTP Docente Asistió a capacitación Frecuencia Porcentaje Frecuencia Porcentaje del programa 87 118 48,4% Sí 38,7% 138 126 51,6% No 61,3% Total

225

100%

244

100%

Respecto a los contenidos tratados en las jornadas de capacitación, se les preguntó a Jefes de UTP y docentes que señalaran de una lista de contenidos posibles de ser tratados, cuáles fueron trabajados en la jornada de capacitación. Las respuestas de ambos fueron coincidente en cuanto que lo que más se señala como tema tratado son los objetivos del programa y lo que menos se señala sería la carta Gantt del proceso.

68

Tabla 59. Contenidos jornada de capacitación.

Explicación contenidos jornada de capacitación Porcentaje Porcentaje Jefe de UTP Docente

Se explicaron… Los objetivos del programa

87,8%

93,7%

La relevancia del programa

67,6%

79,8%

Su rol para el funcionamiento del programa

65,5%

78,3%

La carta Gantt de la implementación del programa

31,8%

30,4%

Funcionamiento de la plataforma Realización de un instrumento de evaluación diagnóstica al comienzo de la utilización Realización de un instrumento de evaluación final al fin de la utilización

90,5%

89,7%

52,0%

62,9%

31,1%

45,5%

Otro

2,0%

5,9%

Ninguna de las anteriores

2,0%

0,0%

Finalmente, se pidió que evaluaran las jornadas de capacitación. Para los Jefes de UTP la evaluación no es tan buena, otorgando nota promedio 4,9 a los contenidos. Esta evaluación es un poco más alta para los docentes, quienes evaluaron de mejor manera la claridad de los expositores con una nota promedio 5,8 y lo peor evaluado fue la duración, con nota 4,7. Tabla 60. Jefe de UTP, evaluación jornada de capacitación.

Contenido capacitación

Obs

Nota Promedio

DS Nota

148

4,9

1,3

Nota Nota mínima máxima 1

7

Al desagregar esta información por sector, es posible observar que los Jefes de UTP de las plataformas de inglés evalúan mejor que los de matemáticas los contenidos tratados en la capacitación (tabla 61).

69

Tabla 61. Jefe de UTP, evaluación jornada de capacitación por sector

Inglés

Contenido capacitación Matemáticas

Obs

Nota Promedio

DS Nota

Nota Nota mínima máxima

61

5,2

1,2

3

7

87

4,7

1,3

1

7

Tabla 62. Docente, evaluación jornada de capacitación.

Utilidad pedagógica de los contenidos de la plataforma

Obs

Nota Promedio

DS Nota

Nota Nota mínima máxima

253

5,6

1,4

1

7

Claridad de los expositores Pertinencia de los contenidos pedagógicos según el currículum de la asignatura

253

5,8

1,2

1

7

253

5,7

1,4

1

7

Duración

253

4,7

1,5

1

7

Finalmente, respecto a la evaluación de las jornadas de capacitación por los docentes se observa una mejor evaluación de los docentes que utilizaron la plataforma de inglés para la claridad de los expositores y la duración de las capacitaciones, no así para la pertinencia de los contenidos, donde el promedio es mejor para la capacitación de los docentes que utilizan la plataforma de matemáticas. Tabla 63. Docente, evaluación jornada de capacitación.

Obs

Nota Promedio

Inglés

135

5,6

1,3

1

7

Matemáticas

118

5,6

1,4

1

7

Inglés

135

5,9

1,2

2

7

Claridad de los expositores Pertinencia de los contenidos pedagógicos según el currículum de la asignatura

Matemáticas

118

5,6

1,2

1

7

135

5,6

1,4

1

7

118

5,9

1,4

1

7

Inglés

135

4,8

1,4

1

7

Duración

Matemáticas

118

4,5

1,6

1

7

Utilidad pedagógica de los contenidos de la plataforma

Inglés Matemáticas

DS Nota

Nota Nota mínima máxima

70

6. Uso del programa En el módulo F de la encuesta docente, se les preguntó sobre el uso que daban ellos al programa. Respecto esta pregunta, la mayoría de los docentes señala que usaba el programa a veces o regularmente. Cabe destacar que un 18% de los docentes indica que nunca ha usado el programa. Tabla 64. Docente, uso el programa.

Uso del programa Frecuencia Porcentaje 82

18,8%

Regularmente

134

30,7%

A veces

140

32,1%

Nunca

80

18,4%

Total

436

100%

Siempre

Al desagregar la información de uso del programa por sector, se observa que el porcentaje de docentes que señala que nunca la ha usado es mayor para la asignatura de lenguaje que para matemáticas. Es así como se muestra en la tabla 65 que son los docentes de matemáticas los que indican un mayor uso de la plataforma. Tabla 65. Docente, uso el programa por sector.

Uso del programa Inglés Matemáticas Frecuencia

Porcentaje

Frecuencia

Porcentaje

Siempre

27

14,1%

55

22,5%

Regularmente

48

25,0%

86

35,3%

A veces

68

35,4%

72

29,5%

Nunca

49

25,5%

31

12,7%

Total

192

100%

244

100%

71

Al preguntar a los docentes que nunca usaron el programa sobre las razones de esto, ellos señalan dentro de las razones más nombradas razón principal que la calidad de conexión a Internet del establecimiento impidió poder llevar a cabo la implementación del programa. Cabe destacar que para los Jefes de UTP está también es una de las principales razones por la cual no usaron el programa los docentes en sus establecimientos (tabla 66). Tabla 66. Razones de no uso el programa.

Razones de no uso del programa No había computadores suficientes para todos los estudiantes Los computadores disponibles para los estudiantes estaban en mal estado No había una sala de enlaces en el establecimiento en la que utilizar el software con los estudiantes o si existía no estaba disponible para esos fines Hubo dificultades para coordinar el horario de la sala de computación para el uso del programa La calidad de conexión a Internet del establecimiento impidió poder llevar a cabo la implementación del programa Hubo cambios en los equipos de trabajo en algunos cargos fundamentales para el uso del programa No hubo claridad en la información entregada respecto de cómo había que implementar el programa No hubo tiempo suficiente para planificar la implementación del programa Hubo problemas con las claves de los alumnos para que accedieran a la plataforma Hubo interés inicial en el establecimiento pero finalmente se consideró que el programa no era útil para los fines pedagógicos del establecimiento No hubo involucramiento de las autoridades y docentes en el uso del programa Otra razón

Porcentaje Porcentaje Jefe de Docente UTP 22,0%

23,7%

17,0%

25,0%

8,5%

10,0%

1,7%

11,3%

39,0%

55,0%

15,3%

8,8%

23,7%

28,8%

10,2%

20,0%

22,0%

20,0%

5,1%

6,3%

8,5%

10,0%

45%

30%

72

También se les preguntó a los Jefes de UTP que estimaran el tiempo promedio semanal de uso del programa por los docentes, reportando que en aproximadamente la mitad de los establecimientos (49%) lo usaban más de una hora, tal como se señala en la tabla 67. Tabla 67. Jefe de UTP, tiempo promedio semanal de uso del programa por docente.

Tiempo promedio semanal de uso del programa Frecuencia Porcentaje 0-30 minutos

53

15,5%

31 minutos a 1 hora

92

27,0%

Más de 1 hora No sabe o no lo tiene claro

166

48,7%

Total

341

30

8,8% 100%

Esta información, diferenciada por asignatura, da cuenta que los Jefes de UTP de las plataformas de matemáticas indican en mayor proporción que los de las plataformas de inglés, el uso de más de una hora semanal de la plataforma. Esta información es consistente con la entregada por los docentes respecto al uso del programa, donde se señala mayor uso de las plataformas de matemáticas. Tabla 68. Jefe de UTP, tiempo promedio semanal de uso del programa por docente y sector.

Tiempo promedio semanal de uso del programa Inglés Matemáticas Frecuencia

Porcentaje

Frecuencia

Porcentaje

0-30 minutos

24

17,3%

29

14,4%

31 minutos a 1 hora

41

29,5%

51

25,2”

Más de 1 hora No sabe o no lo tiene claro

63

45,3%

103

11

7,9%

Total

139

100%

19 202

51,0% 9,4% 100%

73

Por su parte, se preguntó a los docentes y jefes de UTP que reportaron uso menor a una hora semanal, las razones por las cuales el programa presentaba poco uso en el establecimiento. La razón más señalada por los docentes, al igual que en la pregunta por el no uso de la plataforma, fue la calidad de conexión a Internet del establecimiento. Es importante señalar además como otra razón señalada en una alta proporción de docentes, el hecho de tener problemas las claves de los alumnos para ingresar a la plataforma. Estas dos razones también fueron las más señalaron los Jefes de UTP.

74

Tabla 69. Razones de bajo uso el programa.

Razones de bajo uso del programa No había computadores suficientes para todos los estudiantes Los computadores disponibles para los estudiantes estaban en mal estado No había una sala de enlaces en el establecimiento en la que utilizar el software con los estudiantes o si existía no estaba disponible para esos fines Hubo dificultades para coordinar el horario de la sala de computación para el uso del programa La calidad de conexión a Internet del establecimiento impidió poder llevar a cabo la implementación del programa Hubo cambios en los equipos de trabajo en algunos cargos fundamentales para el uso del programa No hubo claridad en la información entregada respecto de cómo había que implementar el programa No hubo tiempo suficiente para planificar la implementación del programa Hubo problemas con las claves de los alumnos para que accedieran a la plataforma Hubo dificultades por parte de los docentes en el uso del programa Hubo interés inicial en el establecimiento pero finalmente se consideró que el programa no era útil para los fines pedagógicos del establecimiento No hubo involucramiento de las autoridades y docentes en el uso del programa Los servicios de apoyo de la institución que administra el software y que son necesarios para que el programa funcione son deficientes Otra razón

Porcentaje Porcentaje Jefe de Docente UTP 31,3%

42,0%

15,7%

22,0%

1,2%

8,0%

26,5%

24,0%

54,2%

64,0%

15,7%

6,0%

41,7%

32,0%

28,9%

46,0%

45,8%

50,0%

33,7

-

8,4%

16,0%

16,9%

18,0%

30,1%

34,0%

24,1%

22,0%

75

En este módulo se les consultó también sobre la planificación de la incorporación de la plataforma en la asignatura, ante los cual un 57% de los jefes de UTP señala que sí existe una planificación para el uso del programa. Tabla 70. Jefe de UTP, planificación para uso del programa.

Existe alguna planificación para el uso del programa Frecuencia Porcentaje Sí

195

57,2%

No

146

42,8%

Total

341

100%

Esta misma información, desagregada por sector, indica que los Jefes de UTP de las plataformas de inglés serían quienes más planifican el uso del programa en la asignatura. Tabla 71. Jefe de UTP, planificación para uso del programa, por sector.

Existe alguna planificación para el uso del programa Inglés Matemáticas Frecuencia

Porcentaje

Frecuencia

Porcentaje



90

64,7%

105

52,0%

No

49

35,3%

97

48,0%

139

100%

202

100%

Total

Respecto al tiempo destinado a esta planificación, los docentes señalan en su mayoría que destinan hasta 2 horas semanales.

76

Tabla 72. Docente, tiempo destinado a la planificación para uso del programa.

Tiempo promedio destinado a la semana para planificación uso del programa Frecuencia Porcentaje Menos de 1 hora

115

32,3%

Entre 1 y 2 horas

159

44,7%

Entre 2 y 3 horas

17

4,8%

Más de 3 horas

10

2,8%

No ha destinado tiempo

55

15,4%

356

100%

Total

Tabla 73. Docente, tiempo destinado a la planificación para uso del programa, por sector.

Tiempo promedio destinado a la semana para planificación uso del programa Inglés Matemáticas Frecuencia

Porcentaje

Frecuencia

Porcentaje

Menos de 1 hora

45

31,5%

70

32,9%

Entre 1 y 2 horas

66

46,1%

93

43,7%

Entre 2 y 3 horas

4

2,8%

13

6,1%

Más de 3 horas

7

4,9%

3

1,3%

21

14,7%

34

16,0%

143

100%

213

100%

No ha destinado tiempo Total

La plataforma, al ser desarrollada en ambiente web y con posibilidad de acceso mediante una clave personal de cada alumno, presentaba la opción de ser usada por estos en sus casas. De esta manera, se les consultó a los docentes si existió uso de la plataforma por los alumnos en sus casas. En la tabla 74 se puede observar que un 62% de los docentes reporta que solo algunos alumnos usaron la plataforma en su casa, mientras que para un 33% de los docentes, ningún alumno hizo este uso externo al establecimiento.

77

Tabla 74. Docente, uso de plataforma en casa por los alumnos.

Cantidad de estudiantes que utiliza plataforma en sus casas Frecuencia Porcentaje 17

Todos

4,8%

Algunos

222

62,3%

Ninguno

117

32,9%

Total

356

100%

Al desagregar la información del uso de la plataforma en las casas por los alumnos, se observa que en matemáticas hay un mayor porcentaje de alumnos que no accede de esta manera. Tabla 75. Docente, uso de plataforma en casa por los alumnos por sector.

Cantidad de estudiantes que utiliza plataforma en sus casas Inglés Matemáticas Frecuencia Todos

4

Porcentaje

Frecuencia

Porcentaje

2,8%

13

6,1%

Algunos

102

71,3%

120

56,3%

Ninguno

37

25,9%

80

37,6%

143

100%

213

100%

Total

A los docentes que señalaron que algunos o ningún alumno utilizó la plataforma en sus casas se les preguntó por las razones de este bajo uso en las casas. Dentro de las principales razones a esta pregunta está el hecho de que los alumnos no cuentan con conexión a Internet en sus casas o que no cuentan con computador (tabla 57).

78

Tabla 76. Docente, razones de bajo uso de plataforma en casa por los alumnos.

Razones de bajo uso del programa en las casas Porque la institución implementadora no dio esta opción

Porcentaje Docente 9,1%

Porque los estudiantes no cuentan con computadores en sus casas

66,7%

Porque los estudiantes no cuentan con conexión a Internet en sus casas Porque resulta difícil para el profesor hacer seguimiento al trabajo del estudiante en casa Porque hay tiempo suficiente para que el estudiante trabaje en la clase y no en casa Porque existen las condiciones físicas y/o materiales para hacerlo en el establecimiento Porque no existió motivación por parte de los estudiantes para trabajar en la plataforma en sus casas

87,0%

Otro razón

10,6%

29,5% 14,5% 24,2% 31,3%

Se les consultó a los docentes por la modalidad de trabajo que tuvieron de la plataforma, considerando por modalidad el trabajo individual de todo el curso, una parte del curso por clase o por más de un alumno por computador. Ante esta pregunta, la mayoría de los docentes reporta tener un trabajo individual de cada alumno en la plataforma (58%). Sin embargo, un alto porcentaje (47%), también señala que utilizaron una modalidad de trabajo de dos alumnos por computador, tal como se señala en la tabla 58. Tabla 77. Docente, modalidades de trabajo en la plataforma.

Modalidad de trabajo en la plataforma

Porcentaje Docente

Individual, cada uno en un computador

58,2%

Rotado por grupos de estudiantes del curso completo

11,2%

En grupos de dos personas

46,9%

En grupos de 3 o más personas

9,0%

Dentro de las razones que señalan para trabajar con este tipo de modalidad está el hecho de que el establecimiento efectivamente contaba con la cantidad necesaria de equipos para cada estudiante, lo que permitiría el uso individual. Pero también está

79

dentro de las razones de trabajo con esta modalidad que el colegio contaba con menor cantidad de equipos utilizables en relación al número de estudiantes del curso, lo que puede haber llevado a los docentes a realizar el trabajo rotado por grupos de estudiantes en horas diferentes o por grupos de alumnos por computador.

Tabla 78. Docente, razones de trabajo con esta modalidad.

Razones de trabajo con esta modalidad Frecuencia Porcentaje El establecimiento cuenta con la cantidad necesaria de equipos para cada estudiante El establecimiento cuenta con la cantidad necesaria de equipos para cada estudiante, pero no todos cuentan con conexión a Internet El establecimiento cuenta con una menor cantidad de equipos utilizables en relación al número de estudiantes del curso No todos los estudiantes contaban con la clave de acceso Conexión a Internet deficiente Otro Total

160 44,9% 42 11,8% 128 36,0% 9 2,5% 6

1,7%

11

3,1%

356

100%

Finalmente, se les preguntó a los docentes en este módulo sobre posibles dificultades en la plataforma que llevaron al uso del soporte técnico con el que contaban. Un 60% de los docentes señaló haber usado soporte técnico de la plataforma. Tabla 79. Docente, uso de soporte técnico.

Uso de soporte técnico Frecuencia Porcentaje Sí

212

59,6%

No

144

40,4%

Total

356

100%

80

Esta información por sector, da cuenta que son los docentes que utilizan las plataformas de inglés los que acceden más al uso del soporte técnico, respecto a los docentes de plataformas de matemáticas. Tabla 80. Docente, uso de soporte técnico por sector.

Inglés Frecuencia

Uso de soporte técnico Matemáticas Porcentaje

Frecuencia

Porcentaje



106

74,1%

106

49,8%

No

37

25,9%

107

50,2%

143

100%

213

100%

Total

Respecto a la respuesta de esto soporte técnico utilizado, de aquellos docentes que lo usaron, un 65% reporta haber tenido una respuesta satisfactoria o muy satisfactoria (tabla 81). Tabla 81. Docente, respuesta de soporte técnico.

Respuesta de soporte técnico Frecuencia Porcentaje Muy satisfactoria

40

18,9%

Satisfactoria

97

45,8%

Poco satisfactoria

59

27,8%

Nada satisfactoria

16

7,5%

Total

212

100%

En cuanto a la respuesta del soporte técnico, se observa un mayor porcentaje de docentes de las plataformas de inglés que señala que la respuesta fue nada satisfactoria.

81

Tabla 82. Docente, respuesta de soporte técnico.

Respuesta de soporte técnico Inglés Matemáticas Frecuencia

Porcentaje

Frecuencia

Porcentaje

Muy satisfactoria

19

17,9%

21

19,8%

Satisfactoria

49

46,2%

48

45,3%

Poco satisfactoria

27

25,5%

32

30,2%

Nada satisfactoria

11

10,4%

5

106

100%

106

Total

4,7% 100%

Al preguntar que indicaran los distintos tipos de dificultades que tuvieron con la plataforma, la mayoría de los docentes señaló el hecho de que la conectividad haya sido defectuosa como la principal dificultad. Asimismo, aproximadamente un tercio de los docentes señala también como dificultad la instalación del software en los equipos, la baja capacidad del establecimiento para que muchos computadores trabajen en forma simultánea y el hecho de no contar con clave para todos los alumnos desde el comienzo de la implementación (tabla 83). Tabla 83. Docente, dificultades de funcionamiento de la plataforma.

Tuvo dificultades en el funcionamiento de la plataforma

Porcentaje Docente

Sí, porque la conectividad a Internet ha sido defectuosa Sí, porque la instalación del software en los equipos ha tenido dificultades Sí, porque la capacidad del establecimiento para que muchos computadores trabajen simultáneamente es escasa Sí, porque no se contó con la clave de todos los alumnos desde el comienzo de la implementación Sí, porque las claves entregadas a los alumnos eran complejas de memorizar por estos Sí, porque cuando se solicitó la reposición o entrega de claves a la empresa implementadora, la respuesta fue muy lenta o no existió

60,4%

No, en realidad ha funcionado correctamente

18,5%

33,7% 37,6% 32,9% 17,7% 21,1%

82

7. Integración del programa en el aula En el módulo E del cuestionario docente se les consultó sobre la forma en que pudieron integrar el software al trabajo que realizan con la asignatura. Ante la pregunta de integrar esta plataforma a la planificación, un 64% de los docentes señala que sí pudo realizar esta integración. Sin embargo, al desagregar esta información por sector de la plataforma, son los docentes de matemáticas quienes indican en mayor porcentaje la posibilidad de realizar esta integración. Tabla 84. Docente, posibilidad de integrar software a la planificación.

Integración software a la planificación del docente Frecuencia Porcentaje Sí

226

63,5%

No

130

36,5%

Total

356

100%

Tabla 85. Docente, posibilidad de integrar software a la planificación, por sector.

Integración software a la planificación del docente Inglés Matemáticas Frecuencia

Porcentaje

Frecuencia

Porcentaje



74

51,7%

152

71,4%

No

69

48,3%

61

28,6%

143

100%

213

100%

Total

A su vez, un 37% señala que no pudo hacer la integración del software a la planificación, indicando como razón para la mayoría de los docentes el hecho de la falta de tiempo para planificar qué contenidos del programa servían para el currículum de la clase. Del mismo modo, aproximadamente un tercio de los docentes señaló también como razones que los contenidos de la plataforma no se ajustaban a la

83

programación previa de la asignatura o bien no se ajustaban al nivel de los estudiantes. Tabla 86. Docente, razón de no integrar software a la planificación.

Razón de no integración a la planificación Porque no seguía los ejes temáticos del currículum Porque no contaba con contenidos que se ajustaran a la programación previa de la asignatura Porque no había tiempo para planificar qué contenidos del programa servían para el currículum de la clase Porque la organización de temas y contenidos del programa estaban desordenados como para integrarlos a la clase

Porcentaje Docente 20,0% 30,0% 49,2% 23,1%

Porque el programa tenía muchos errores conceptuales Porque el contenido y/o diseño no se ajustaba al nivel de los estudiantes

4,6% 30,0%

Otra razón

33,9%

Al preguntarles por la forma en que integraron el software a la planificación, la mayoría de los docentes (60%), señaló que este tuvo un uso complementario a la clase de la asignatura que impartían. Un alto porcentaje también reporta un uso de apoyo a la ejercitación de la clase (56%). Tabla 87. Docente, forma de integrar software a la planificación.

Integración programa a la planificación

Porcentaje Docente

Tuvo un uso central en la clase

12,4%

Tuvo un uso complementario a la clase

59,6%

Tuvo un uso de apoyo a los contenidos de la clase

38,8%

Tuvo un uso de apoyo a la ejercitación de la clase

55,6%

Fue usado como repaso fuera del horario de la asignatura

29,8%

Otra manera

7,0%

Se les preguntó también sobre el apoyo que recibieron para integrar la plataforma a la planificación del currículum en el aula desde la institución implementadora o desde Mineduc/Enlaces. Ante esta pregunta, un bajo porcentaje de los docentes señala haber

84

tenido este apoyo: 23% sí indicaría este apoyo desde institución implementadora y un 13% desde Mineduc/Enlaces (tablas 88 y 90, respectivamente). Tabla 88. Docente, apoyo desde institución implementadora.

Apoyo desde institución implementadora para integrar plataforma Frecuencia Porcentaje Sí

80

22,5%

No

276

77,5%

Total

356

100%

Respecto al apoyo desde la institución implementadora, son los docentes de matemáticas quienes señalan en mayor proporción haber recibido este apoyo, respecto a inglés. Lo mismo sucede en cuanto al apoyo desde Mineduc/Enlaces (tablas 89 y 91).

Tabla 89. Docente, apoyo desde institución implementadora, por sector.

Apoyo desde institución implementadora para integrar plataforma Inglés Matemáticas Frecuencia

Porcentaje

Frecuencia

Porcentaje



26

18,2%

54

25,4%

No

117

81,8%

159

74,6%

Total

143

100%

213

100%

Tabla 90. Docente, apoyo desde Mineduc/Enlaces.

Apoyo desde Mineduc/Enlaces para integrar plataforma Frecuencia Porcentaje Sí

45

12,6%

No

311

87,4%

Total

356

100%

85

Tabla 91. Docente, apoyo desde Mineduc/Enlaces, por sector

Apoyo desde Mineduc/Enlaces para integrar plataforma Inglés Matemáticas Frecuencia Sí

12

No

131

Total

143

Porcentaje

Frecuencia

Porcentaje

33

15,5%

91,6%

180

84,5%

100%

213

100%

8,4%

86

8. Valoración de la utilidad del programa En el último módulo de la encuesta, tanto para docentes como jefes de UTP, se les preguntó sobre la valoración de la utilidad que le asignaban al programa utilizado en su establecimiento. Al pedirle al Jefe de UTP que evaluara el software en distintos aspectos, estos entregaron como nota promedio 5,0 la fluidez de la comunicación con la empresa administradora, y con nota 5,8 la fluidez de la información entre jefe de UTP y Docente, con misma nota la utilidad que otorgaban al programa y la visión general del programa. Tabla 92. Jefe de UTP, evaluación software.

Fluidez en la comunicación entre el establecimiento y la empresa que administra el software Fluidez de la información entre Jefe de UTP y docentes al interior del establecimiento Utilidad del programa para el aprendizaje de los alumnos Visión general del programa

Obs

Nota Promedio

DS Nota

Nota Nota mínima máxima

333

5,0

1,5

1

7

330

5,8

1,0

1

7

328

5,8

1,2

1

7

327

5,8

1,2

1

7

Se pidió también al docente poner nota de 1 a 7 a distintos aspectos del software. Dentro de lo mejor evaluado con nota promedio 6,0, se encuentra la calidad conceptual de los contenidos. Y lo evaluado más bajo, con nota 5,1 estaría la pertinencia de la información entregada y la rapidez de funcionamiento.

87

Tabla 93. Docente, evaluación software.

Obs

Nota Promedio

Pertinencia de la información entregada

343

5,1

1,5

1

7

Facilidad de uso

352

5,8

1,3

1

7

Rapidez de funcionamiento Reporte de avance de los estudiantes Ejercicios entregados para los estudiantes Calidad conceptual de los contenidos

346

5,1

1,5

1

7

334

5,4

1,6

1

7

343

5,9

1,3

1

7

351

6,0

1,1

1

7

Visión general del programa

354

5,8

1,1

1

7

DS Nota

Nota Nota mínima máxima

Esta misma pregunta fue analizada por plataforma, siendo la plataforma Mi clase la mejor evaluada por los docentes y Arquimed la que presentó promedio más bajos (tabla 94). Tabla 94. Docente, evaluación software por plataforma.

Notal promedio evaluación por plataforma Arquimed

Ediciones SM Gal&Leo

Mi clase

Pertinencia de la información entregada

4,5

5,2

5,1

5,5

Facilidad de uso

5,0

5,8

5,8

6,2

Rapidez de funcionamiento Reporte de avance de los estudiantes Ejercicios entregados para los estudiantes Calidad conceptual de los contenidos

4,4

4,9

5,2

5,9

5,1

5,2

5,4

5,8

5,4

5,8

5,8

6,3

5,4

6,0

6,0

6,5

Visión general del programa

5,0

5,9

5,8

6,1

88

También se solicitó a los docentes poner nota a la plataforma en sus aspectos de diseño. Los promedios otorgados a distintos aspectos del diseño fueron bastante altos, presentando nota más baja (5,8), las herramientas de voz, y nota más alta (6,4), colores e imágenes. Tabla 95. Docente, aspectos de diseño del software.

Obs

Nota Promedi o

DS Nota

Nota mínim a

Nota máxim a

Colores

354

6,4

1,0

1

7

Imágenes

354

6,4

1,0

1

7

Herramientas de sonido

317

5,9

1,3

1

7

Herramientas de voz

302

5,8

1,4

1

7

Herramientas multimedia

336

6,1

1,1

1

7

Herramientas interactivas

350

6,3

1,0

1

7

Al igual que la pregunta anterior, esta pregunta fue desglosada por plataforma, siendo nuevamente la plataforma de Arquimed la evaluada con calificaciones más bajas (tabla 96). Tabla 96. Docente, aspectos de diseño del software por plataforma.

Notal promedio evaluación por plataforma Arquimed

Ediciones SM Gal&Leo

Mi clase

Colores

5,7

6,8

6,5

6,4

Imágenes

5,7

6,7

6,4

6,4

Herramientas de sonido

5,1

6,2

6,1

5,9

Herramientas de voz

4,8

6,0

6,0

5,8

Herramientas multimedia

5,4

6,2

6,2

6,4

Herramientas interactivas

5,5

6,5

6,3

6,4

Respecto a la percepción de los docentes de la respuesta de los estudiantes frente al software, la mayoría de ellos reporta que a estos les gustó y se motivaron. Asimismo, un alto porcentaje (67%), señala que los alumnos disfrutaron de esta experiencia. Es

89

bajo el porcentaje de docentes que indica que fue una mala experiencia para los alumnos o que el software no les gustó. Tabla 97. Docente, evaluación respuesta estudiantes al software.

Evaluación respuesta estudiantes

Porcentaje Docente

Se motivaron

73,0%

Les gustó

78,1%

Aprendieron más sobre la asignatura

60,4%

Autogestionaron el avance de su aprendizaje

44,9%

Disfrutaron de la experiencia

67,1%

No les gustó

7,2%

Fue una mala experiencia para ellos

2,5%

Fueron indiferentes ante la plataforma

14,3%

También se les preguntó a Docentes y Jefes de UTP sobre las habilidades y/o conocimientos que ellos percibían se habían desarrollado en sus alumnos. Para un alto porcentaje de Jefes de UTP, dentro de las habilidades desarrolladas por los software de inglés estarían la mejora en la comprensión auditiva y el aprendizaje de más vocabulario. A su vez, un 62% indica que los alumnos, tanto de matemáticas como inglés, desarrollaron mayores habilidades de auto-aprendizaje.

90

Tabla 98. Jefe de UTP, evaluación de habilidades y/o conocimientos desarrollados con el software.

Habilidades y/o conocimientos logrados Frecuencia Porcentaje Mayor comprensión lectora Mejoramiento en la escritura

122

35,8%

11

32

23,0%

12

90

64,8%

Mejora de vocabulario13

88

63,3%

41

29,5%

Mayores habilidades Tecnológicas

208

61,0%

Mayores habilidades de auto-aprendizaje Mejor comprensión del contenido de las asignaturas No he observado el desarrollo de habilidades en los estudiantes

212

62,2%

170

49,9%

45

13,2%

19

5,6%

Comprensión auditiva

Mejoramiento de la Comunicación Oral

14

Otro

Frente a esta misma pregunta, mayor cantidad de docentes que utilizaron las plataformas de inglés también reportan la comprensión auditiva y vocabulario como las habilidades más desarrolladas. Y en matemáticas, lo más reportado sería el desarrollo de mayores habilidades tecnológicas.

11 12 13 14

Esta Esta Esta Esta

habilidad habilidad habilidad habilidad

solo solo solo solo

se se se se

preguntó preguntó preguntó preguntó

a a a a

los los los los

Jefes Jefes Jefes Jefes

de de de de

UTP UTP UTP UTP

de de de de

plataformas plataformas plataformas plataformas

de de de de

inglés inglés inglés inglés

91

Tabla 99. Docente, evaluación de habilidades y/o conocimientos desarrollados con el software.

Habilidades y/o conocimientos logrados Inglés Matemáticas Frecuencia Porcentaje Frecuencia Porcentaje Mayor comprensión lectora

65

45,5%

114

53,5%

Mejoramiento en la escritura

41

28,7%

-

-

Comprensión auditiva

96

67,1%

-

-

Mejora de vocabulario

101

70,6%

-

-

Mejoramiento de la Comunicación Oral

29

20,3%

-

-

Mayores habilidades Tecnológicas

90

62,9%

159

74,7%

Mayores habilidades de auto-aprendizaje Mejor comprensión del contenido de las asignaturas No he observado el desarrollo de habilidades en los estudiantes

72

50,4%

146

68,5%

56

39,2%

134

62,9%

15

10,5%

16

7,5%

8

5,6%

17

8,0%

Otro

Finalmente, se les pidió a los docentes y Jefes de UTP indicar acciones para implementar de mejor manera el software en el establecimiento, aspectos a mejorar de la institución implementadora y sugerencias a los miembros del establecimiento para mejorar la implementación. Dentro de las acciones para implementar de mejor manera dentro del establecimiento, lo más nombrado por Jefes de UTP y Docentes es mejorar la conexión a Internet de los computadores. También es altamente señalado el hecho de integrar de mejor manera el software a la planificación de la asignatura.

92

Tabla 100. Acciones para implementar de mejor manera software.

Acciones para implementar de mejor manera el software Porcentaje Porcentaje Jefe UTP Docente Disminuir el tamaño del curso

16,1%

26,3%

Aumentar la cantidad de computadores disponibles

42,2%

52,9%

Mejorar la conexión a Internet de los computadores

61,0%

75,6%

Integrar mejor el software a la planificación de la asignatura Generar una política a nivel del establecimiento para motivar el uso del software Contar con mayor apoyo del sostenedor y/o director del establecimiento Generar mayor motivación y sensibilización en los docentes para el uso del software

57,5%

64,6%

39,3%

59,2%

14,7%

36,3%

38,7%

47,9%

Tener tiempo suficiente para implementar el software

48,7%

68,9%

1,8%

1,7%

13,5%

19,4%

No habría que mejorar nada Otro

En cuanto a los aspectos a mejorar desde la institución implementadora, también coinciden Jefes de UTP y Docentes, señalando en mayor proporción el hecho de aumentar la cantidad de capacitaciones y la entrega de un cronograma claro de etapas y actividades a desarrollar.

93

Tabla 101. Aspectos a mejorar en software.

Aspectos a mejorar desde institución administradora Frecuencia Frecuencia Jefe UTP Docente Mayor cantidad de capacitaciones Entrega de un cronograma claro de etapas y actividades a desarrollar

65,0%

77,8%

61,0%

77,0%

Mejorar el diseño y/o diagramación del programa

19,8%

26,0%

Mejorar la organización de los contenidos de la plataforma web

23,8%

35,2%

Mejorar la comunicación desde la institución administradora Mejorar los servicios de ayuda en línea desde la institución administradora Incorporar seguimiento presencial al uso del software desde la institución administradora Entregar soluciones oportunas y eficaces a los problemas que se han presentado en el establecimiento

47,0%

63,7%

36,8%

50,9%

52,8%

65,2%

38,5%

52,7%

4,5%

2,2%

12%

6,8%

No habría que mejorar nada Otro

Respecto a las sugerencias a los miembros del establecimiento para mejorar la implementación, lo más nombrado por Jefes de UTP y Docentes es el mejorar la conexión a Internet, lo que ya ha sido ampliamente señalado en otras preguntas similares. También se presenta como sugerencia el hecho de que exista mayor difusión del programa al interior del establecimiento.

94

Tabla 102. Sugerencias para mejorar implementación del software.

Sugerencias para mejorar la implementación Frecuencia Frecuencia Jefe UTP Docente Que haya más difusión del programa al interior del establecimiento Que las autoridades del establecimiento apoyaran de mejor forma su implementación Que haya un encargado de informática que apoye con horas fijas la implementación del software Que haya mayor claridad sobre los objetivos y la visión del programa Que se realice una mejor división de roles entre los miembros del establecimiento para implementar el programa Mejorar la planificación horaria para el uso de los computadores requeridos para la implementación del programa

42,8%

59,6%

17,0%

39,4%

35,3%

57,2%

39,8%

51,3%

18,5%

32,4%

29,8%

48,6%

Mejorar la calidad de los computadores

36,3%

56,0%

Mejorar la conexión a Internet

57,0%

76,1%

No tengo sugerencias

8,0%

5,5%

Otro

8,0%

8,0%

95

VIII. Resultados de diagnóstico Plataformas VIII.1 Caracterización Socio-Económico y Cultural El propósito de este apartado del informe es realizar un análisis de la situación académica de los alumnos durante el año 2012, en la rendición del SIMCE en el nivel de 4 Básico. Asimismo se pretende observar el uso que se ha dado a las plataformas del Software Educativo por parte de los alumnos de los establecimientos participantes del programa, para finalmente poder verificar si existen o no diferencias significativas a reportar entre diversas variables situadas en el periodo 2012. En este capítulo se procederá a describir el escenario que se registró el año 2012, que corresponde al

año inicial

de implementación

del

software

educativo en

los

establecimientos seleccionados que integran este estudio. Lo anterior es relevante en la medida que determina, en cierta medida, la metodología con la cual se pretende realizar los análisis reportados en las siguientes secciones, debido principalmente a que este estudio considera un contexto inicial del programa, por ende, es necesario ser cauteloso a la hora de analizar los posibles efectos encontrados. A continuación se presentará una caracterización del perfil que define a los establecimientos y alumnos, participantes como no participantes del programa, este análisis incluirá la descripción de los establecimientos con el objeto de identificar las limitaciones que surgen debido a los datos, entre ellas, debido a la disponibilidad de información de ciertas variables.

SIMCE 4 Básico 2012, descripción del proceso de rendición Es importante antes de realizar cualquier análisis, generar un reporte que indique cuál es el universo de alumnos y establecimientos en este caso, sobre el cual se aplicará el estudio, así como también identificar la proporción del universo de la unidad de análisis, sobre la cual se dispone de información.

96

Se indicó en la sección Datos, que las pruebas SIMCE se aplican a diversos niveles de enseñanza, para este informe se dispone de información de 4º básico del año 2012. De esta manera, se aprecia en la tabla 103, el reporte del universo de alumnos de este nivel y establecimientos correspondientes a ese año, que da la referencia de cuál es la totalidad sobre la cual calcular las tasas de asistencia a las pruebas SIMCE. Además se incluye en esta tabla, lo sucedido con el grupo de alumnos participantes del programa.

Así, se observa que el universo de alumnos corresponde a 239.177 individuos, mientras que se da un total de 7.861 establecimientos, ambos datos corresponden a la información que publica el Centro de Estudios del MINEDUC, en particular, la base de matriculados del año 2012. Respecto al universo participante del programa, se observa que corresponde a 59.728 alumnos pertenecientes a 1.382 establecimientos.

Si se compara la cifra del universo en relación a la cantidad de alumnos que reportan haber rendido cualquiera de las tres pruebas que contiene SIMCE, se ve que la tasa de asistencia del total de alumnos es de 93,3%, lo cual corresponde a un 98,5% del total de establecimientos. En tanto al comparar esta situación con los alumnos que participan del programa se aprecia que su tasa de asistencia es de un 100%.

97

Tabla 103: Asistencia SIMCE 4º Básico año

2012 Asistencia SIMCE 4º Básico año 2012

Universo Total 239177 Municipal 96403 Dependencia P. Subvencionado 125279 P. Pagado 17495 Hombre 121946 Género Mujer 117231 Arica y Parinacota 3291 Tarapacá 4777 Antofagasta 8851 Atacama 4472 Coquimbo 10541 Valparaíso 23669 R.M. 91683 Región O'Higgins 12849 Del Maule 14402 Bío-Bío 28661 La Araucanía 14014 Los Ríos 5413 Los Lagos 12743 Aysen 1601 Magallanes 2210

Total Participantes del Programa Alumnos Establecimientos Alumnos Establecimientos Rinden Asistencia Universo Rinden Asistencia Universo Rinden Asistencia Universo Rinden Asistencia 223139 93.3% 7861 7744 98.5% 59728 59728 100.0% 1382 1382 100.0% 87617 90.9% 4267 4204 98.5% 35005 35005 100.0% 910 910 100.0% 118301 94.4% 3190 3133 98.2% 24723 24723 100.0% 472 472 100.0% 17221 98.4% 404 407 100.7% 112748 92.5% 29828 29828 100.0% 110391 94.2% 29900 29900 100.0% 2903 88.2% 85 76 89.4% 1544 1544 100.0% 33 33 100.0% 4341 90.9% 110 109 99.1% 891 891 100.0% 17 17 100.0% 8360 94.5% 139 136 97.8% 2107 2107 100.0% 28 28 100.0% 4156 92.9% 110 108 98.2% 2103 2103 100.0% 41 41 100.0% 9805 93.0% 487 478 98.2% 2973 2973 100.0% 65 65 100.0% 22223 93.9% 772 766 99.2% 5730 5730 100.0% 162 162 100.0% 86687 94.6% 1824 1808 99.1% 15122 15122 100.0% 289 289 100.0% 12029 93.6% 460 459 99.8% 4301 4301 100.0% 109 109 100.0% 13183 91.5% 604 594 98.3% 4046 4046 100.0% 109 109 100.0% 26382 92.0% 1071 1058 98.8% 10706 10706 100.0% 268 268 100.0% 12827 91.5% 940 923 98.2% 3766 3766 100.0% 103 103 100.0% 4994 92.3% 374 367 98.1% 1663 1663 100.0% 46 46 100.0% 11711 91.9% 774 754 97.4% 3243 3243 100.0% 81 81 100.0% 1478 92.3% 57 56 98.2% 506 506 100.0% 12 12 100.0% 2060 93.2% 54 52 96.3% 1024 1024 100.0% 19 19 100.0% Fuente: Elaboración Propia en base a SIMCE 4º 2012

98

Al analizar la cifra recién presentada según dependencia, se aprecian ciertas diferencias en cuanto a la tasa de asistencia del total de alumnos, aquellos de establecimientos municipales registran la tasa de asistencia más baja e igual a 90.9%, mientras que los alumnos participantes del programa presentan un 100% de asistencia. Los estudiantes de establecimientos particulares subvencionados reportan un 94.4% de asistencia, en tanto el 100% de los alumnos participantes del programa asisten a la rendición del SIMCE. Los individuos que pertenecen a establecimientos particulares pagados evidencian una alta asistencia en comparación con los otros dos tipos de instituciones, alcanzando un 98.4% de participación

15

. Respecto a los

establecimientos, se ve que tanto municipales como particular subvencionados registran una participación del orden del 98%, en tanto los establecimientos particulares reportan una participación completa, no obstante, se aprecia un porcentaje superior a 100%, puesto que el total de establecimientos que reporta el Centro de Estudios del MINEDUC no coincide con lo registrado en las bases SIMCE. Siguiendo esta observación respecto a la asistencia según el género, se expresa en el cuadro 3 que la rendición en las pruebas SIMCE fue mayor en el caso de las mujeres con un 94.2%, respecto a los hombres que registran una asistencia de 92.5%. Finalmente observando lo sucedido en regiones, se ve que la región que menor asistencia presenta es la Región de Arica y Parinacota con un 88.2%, seguido por la Región de Tarapacá con una tasa igual a un 90.9%, en tanto las regiones que registran las mayores tasas de asistencia son las regiones Metropolitana y Antofagasta con un 94.6%

y

94.5%,

respectivamente.

En

relación

a

la

participación

de

los

establecimientos, se replica que la Región de Arica y Parinacota presenta la tasa más baja con un 89.4%, mientras que las demás regiones en promedio reportan un 98% de participación en las pruebas SIMCE. Replicando esta observación para los participantes del programa, se aprecia que la asistencia es máxima para todas las regiones. En términos generales se observa que el proceso de aplicación de las pruebas SIMCE presenta un buen comportamiento respecto a la asistencia, tanto para el total y según 15

El programa no se aplica en dependencia particular pagada.

99 Evaluación Programa Software Educativo – Informe Final

ciertas variables de interés, lo cual es de gran relevancia puesto que corresponde a una prueba masiva, de carácter censal, donde se observó una alta tasa de asistencia para el total de los alumnos y una asistencia completa para los alumnos participantes del programa. Composición Académica y socio demográfica de los Establecimientos La revisión de la asistencia que se evidenció en el proceso 2012 en las pruebas SIMCE de 4º básico es importante, ya que nos da la seguridad de que los análisis que a continuación se presentan, serán representativos del nivel analizado, esto es, para la población de estudiantes de 4º básico. De esta manera, el primer análisis que corresponde realizar es respecto a los puntajes registrados, bien sabemos que para este nivel se aplican tres pruebas: 

Lenguaje y Comunicación



Matemáticas



Historia, Geografía y Ciencias Sociales

para cada una de ellas se presentará un análisis del puntaje obtenido por los alumnos que rindieron estos exámenes, tanto para el total como diferenciado según distintas variables de interés, así como también focalizando el análisis a los participantes del programa, que corresponde al grupo de interés. En la tabla 105, se presentan los puntajes obtenidos para cada prueba rendida en SIMCE 4º básico, donde para el periodo considerado se aprecia que el puntaje promedio obtenido para el total de alumnos en la prueba de lenguaje es de 267.06 puntos con una desviación estándar de 51.58 puntos donde el rango de puntajes contempla desde los 104.20 hasta 381.64 puntos, para un total de 218848 alumnos. En tanto, la prueba de matemáticas registra un puntaje promedio de 260.91 puntos con una desviación estándar de 50.14 puntos, en esta prueba los puntajes van desde los 84.56 hasta los 378.54 puntos, para un total de 218826 alumnos. Finalmente para la prueba de historia, geografía y ciencias sociales se ve que el puntaje promedio es de 258.18 puntos con una desviación estándar de 48.68 puntos en un rango desde 108.34 hasta 371.18 puntos, para un total de 217372 estudiantes.

100 Evaluación Programa Software Educativo – Informe Final

En esta misma tabla se observa, para los alumnos participantes del programa, el puntaje obtenido en cada una de estas pruebas SIMCE 4º básico. Así en la prueba de lenguaje el puntaje promedio de estos alumnos es de 263.07 puntos con una desviación estándar de 51.27 puntos donde el rango de puntajes contempla desde los 110.67 hasta 377.25 puntos, para un total de 58606 alumnos. En tanto, la prueba de matemáticas registra un puntaje promedio de 257.08 puntos con una desviación estándar de 48.94 puntos, en esta prueba los puntajes van desde los 106.24 hasta los 378.54 puntos, para un total de 58548 alumnos. Finalmente para la prueba de historia, geografía y ciencias sociales se ve que el puntaje promedio es de 253,50 puntos con una desviación estándar de 47.61 puntos en un rango desde 109,44 hasta 371.18 puntos, para un total de 58503 estudiantes. Tabla 104: Puntajes Prueba SIMCE 4º Básico año 2012

Prueba Lenguaje y Comunicación Matemáticas Historia, G. Y C Sociales

N. Alumnos 218848 218826 217372

Media 267.06 260.91 258.18

SIMCE 4º Básico año 2012 Total Puntaje N. Alumnos D. Estándar Mínimo Máximo 51.84 104.20 381.64 58606 50.14 84.56 378.54 58548 48.68 108.34 371.18 58503

Participantes del Programa Puntaje Media D. Estándar Mínimo Máximo 263.07 51.27 110.67 377.25 257.08 48.94 106.24 378.54 253.50 47.61 109.44 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Este mismo análisis es posible de repetir con la distinción del género del alumno, respecto al total de los alumnos se ve que las mujeres registran un mayor puntaje en la prueba de lenguaje con un promedio de 272.82 puntos mientras que los hombres obtienen una media de 261.39 puntos. En tanto, para la prueba de Matemáticas e Historia, G. Y Ciencias Sociales, se observa que los hombres son quienes logran un mayor puntaje promedio con 262.01 y 259.47 puntos respectivamente, frente a las mujeres que obtuvieron 259.78 y 256.88 puntos en estas pruebas respectivamente.

Esta situación se replica al mirar a los participantes del programa, donde las mujeres registran un mayor puntaje en la prueba de lenguaje con un promedio de 269.24 puntos mientras que los hombres obtienen una media de 256.86 puntos. Así, para la prueba de Matemáticas e Historia, G. Y Ciencias Sociales, se observa que los hombres son quienes logran un mayor puntaje promedio con 257.79 y 254.44 puntos

101 Evaluación Programa Software Educativo – Informe Final

respectivamente, frente a las mujeres que obtuvieron 256.38 y 252.58 puntos en estas pruebas respectivamente.

Tabla 105: Puntajes Prueba SIMCE 4º Básico año 2012, según género

Prueba

Género

N. Alumnos

Hombre Lenguaje y Comunicación Mujer Hombre Matemáticas Mujer Hombre Historia, G. Y C Sociales Mujer

110374 108474 110297 108529 109517 107855

SIMCE 4º Básico año 2012 Total Puntaje N. Alumnos Media D. Estándar Mínimo Máximo 261.39 53.13 104.20 377.25 29224 272.82 49.84 110.19 381.64 29382 262.01 51.35 84.56 378.54 29168 259.78 48.85 93.40 378.54 29380 259.47 50.49 108.34 371.18 29137 256.88 46.74 108.34 371.18 29366

Participantes del Programa Puntaje Media D. Estándar Mínimo Máximo 256.86 52.48 110.67 377.25 269.24 49.27 114.32 377.25 257.79 50.32 110.94 378.54 256.38 47.53 106.24 378.54 254.44 49.27 109.44 371.18 252.58 45.89 110.75 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

A continuación se presenta para cada región del país el puntaje obtenido en estas pruebas, se aprecia que en términos generales los puntajes promedios así como el máximo alcanzado son similares entre sí. Particularmente en la prueba de lenguaje se observa que en la Región Metropolitana se alcanza el mayor puntaje promedio, mientras que la Región XIV se presenta el resultado más bajo e igual a 262.46 puntos, es interesante destacar que el máximo puntaje se aprecia en la Región X. Tabla 106: Puntaje Lenguaje SIMCE 4º Básico año 2012, según región SIMCE 4º Básico año 2012 Total

Región XV I II III IV V RM VI VII VIII IX XIV X XI XII

Prueba

Lenguaje y Comunicación

N. Alumnos 2832 4251 8218 4066 9593 21786 84807 11860 13012 25903 12641 4912 11492 1445 2030

Media 266.25 265.54 266.45 262.68 265.54 264.01 268.77 264.42 267.55 268.67 264.62 262.46 267.72 266.56 265.34

Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 51.97 117.78 377.25 1497 262.97 52.72 121.60 377.25 51.77 113.37 377.25 868 258.99 50.66 124.45 374.67 51.13 118.13 377.25 2067 261.78 50.03 121.31 377.25 52.53 114.40 377.25 2065 260.79 52.90 114.40 377.25 51.91 110.67 377.86 2906 260.49 51.60 110.67 377.25 51.88 113.01 377.25 5607 257.60 51.99 119.57 377.25 52.31 110.19 377.25 14822 261.86 51.88 115.38 377.25 52.40 117.41 377.25 4235 258.46 52.53 117.41 377.25 51.54 104.20 377.25 4002 267.45 49.87 116.21 377.25 50.47 110.67 377.25 10510 266.69 50.13 114.32 377.25 52.35 112.31 377.25 3701 268.42 50.09 124.89 377.25 51.84 108.95 377.25 1634 262.02 49.32 125.41 377.25 50.51 115.05 381.64 3191 266.11 50.64 115.05 377.25 49.14 128.72 377.25 492 270.86 48.73 132.44 377.25 50.68 120.75 377.25 1009 262.46 50.65 131.36 377.25

Fuente: Elaboración Propia en base a SIMCE 4º 2012

102 Evaluación Programa Software Educativo – Informe Final

En cuanto a la prueba de Matemáticas se ve que en la Región XV se alcanza el mayor puntaje promedio con 264.45 puntos, mientras que, al igual que en la prueba de lenguaje, la Región XIV se presenta el resultado más bajo e igual a 250.06 puntos. En cuanto al máximo puntaje, se aprecia que todas las regiones logran alcanzar los 378.54 puntos.

Tabla 107: Puntaje Matemáticas SIMCE 4º Básico año 2012, según región SIMCE 4º Básico año 2012 Total

Región XV I II III IV V RM VI VII VIII IX XIV X XI XII

Prueba

Matemáticas

N. Alumnos 2844 4238 8133 4087 9662 21761 84815 11904 13004 25909 12601 4872 11529 1452 2015

Media 264.45 261.38 259.59 255.41 259.47 256.48 263.68 257.09 262.68 264.12 253.71 250.89 259.06 260.68 258.99

Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 50.37 116.27 378.54 1507 260.20 51.89 126.07 378.54 49.07 114.01 378.54 863 258.30 48.95 121.85 378.54 48.51 105.04 378.54 2037 258.79 47.00 119.10 378.54 52.45 109.48 378.54 2065 253.46 50.43 109.48 378.54 48.68 107.74 378.54 2925 255.01 48.08 107.74 378.54 48.56 105.89 378.54 5592 249.12 49.31 111.84 378.54 50.31 103.03 378.54 14777 256.34 48.86 114.80 378.54 50.98 106.35 378.54 4263 250.63 49.58 106.35 378.54 51.37 109.48 378.54 3995 263.49 49.91 110.94 378.54 49.22 84.56 378.54 10500 262.12 47.88 115.09 378.54 52.26 93.40 378.54 3705 259.08 48.71 106.24 378.54 50.85 92.17 378.54 1620 252.08 47.30 119.66 378.54 49.30 101.58 378.54 3201 259.38 48.29 115.21 378.54 45.42 136.33 378.54 493 265.14 47.25 136.33 378.54 46.94 119.63 378.54 1005 255.25 46.30 138.20 378.54

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Por último se aprecia en la tabla 108 el resultado observado para la prueba de historia, geografía y ciencias sociales según región, donde es la Región XII que obtiene el mayor puntaje promedio con 261.42 puntos, mientras que la Región III se presenta el resultado más bajo e igual a 250.32 puntos. Al igual que en Matemáticas, todas las regiones logran un puntaje máximo de 371.18 puntos.

103 Evaluación Programa Software Educativo – Informe Final

Tabla 108: Puntaje Historia, G. Y C. Sociales SIMCE 4º Básico año 2012, según región SIMCE 4º Básico año 2012 Total

Región XV I II III IV V RM VI VII VIII IX XIV X XI XII

Prueba

N. Alumnos

Historia, G. Y C Sociales

2835 4239 8153 4058 9553 21670 84750 11812 12879 25656 12274 4744 11288 1451 2010

Media 258.00 254.80 256.94 250.32 256.35 255.31 260.75 255.17 259.72 258.40 254.95 251.11 257.55 260.11 261.42

Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 49.35 117.38 371.18 1507 256.36 50.30 119.69 371.18 48.28 109.87 371.18 870 247.55 46.17 119.06 371.18 48.14 114.67 371.18 2043 251.04 46.76 121.68 371.18 49.74 111.36 371.18 2067 247.33 48.55 111.36 371.18 48.16 108.43 371.18 2930 251.34 46.92 123.46 371.18 47.95 108.70 371.18 5580 247.00 47.15 115.01 371.18 49.00 110.08 371.18 14747 253.08 47.91 110.75 371.18 49.54 109.44 371.18 4254 248.13 48.62 109.44 371.18 48.65 112.09 371.18 3997 259.50 47.26 112.09 371.18 48.10 110.39 371.18 10483 256.19 47.11 119.61 371.18 48.97 108.34 371.18 3697 259.30 46.68 128.19 371.18 48.44 115.10 371.18 1627 249.75 45.25 115.10 371.18 47.76 108.34 371.18 3203 258.15 46.92 117.59 371.18 44.52 134.42 371.18 496 265.02 45.28 141.78 371.18 46.83 118.94 371.18 1002 255.82 47.14 126.34 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Al revisar los puntajes por dependencia, se indica en la tabla 109 que para las tres pruebas que contempló el SIMCE 4º básico, son los establecimientos particular pagado los que obtienen el puntaje más alto, respecto a los establecimientos particular subvencionado y municipal. Si bien en la prueba de lenguaje se ve que los establecimientos municipales alcanzan el puntaje más alto, obtienen un puntaje promedio de 254.83 puntos, en tanto se ve que la media es de 271.19 y 300.64 puntos

para

establecimientos

particular

subvencionado

y

particular

pagado

respectivamente. Para el caso de la prueba de matemáticas, se aprecia una situación similar, sin embargo, los tres tipos de establecimientos alcanzan el máximo de 378.54 puntos, con un promedio de 247.74, 265.06 y 299.10 puntos para los establecimientos de tipo municipal, particular subvencionado y particular pagado, respectivamente. Respecto a historia, geografía y ciencias sociales el escenario se repite, las tres dependencias logran un puntaje máximo de 371.18 puntos, con un promedio para los establecimientos municipal, particular subvencionado y particular pagado de 243.57, 263.07 y de 297.74, respectivamente.

104 Evaluación Programa Software Educativo – Informe Final

Tabla 109: Puntajes Pruebas SIMCE 4º Básico año 2012, según dependencia

Dependencia

Prueba

Municipal Lenguaje y P. Subvencionado Comunicación P. Pagado Municipal P. Subvencionado Matemáticas P. Pagado Municipal Historia, G. Y C P. Subvencionado Sociales P. Pagado

N. Alumnos 85794 116122 16932 85701 116194 16931 84565 115888 16919

Media 254.83 271.19 300.64 247.74 265.06 299.10 243.57 263.07 297.74

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 51.95 104.20 381.64 34327 257.34 51.82 110.67 377.25 50.00 108.95 377.25 24279 271.17 49.36 116.84 377.25 43.77 119.96 377.25 50.02 84.56 378.54 34243 250.84 49.73 106.24 378.54 47.64 93.40 378.54 24305 265.88 46.41 112.61 378.54 42.36 114.20 378.54 47.48 108.34 371.18 34186 246.58 47.62 109.44 371.18 46.50 108.34 371.18 24317 263.23 45.88 113.83 371.18 39.73 108.70 371.18 -

Fuente: Elaboración Propia en base a SIMCE 4º 2012

A continuación se presenta en la tabla 110 los puntajes obtenidos para cada prueba, según grupo socioeconómico, esta variable presenta cinco categorías, Bajo, Medio Bajo, Medio, Medio Alto y Alto. Se observa, para las tres pruebas analizadas, que los puntajes alcanzados son menores en la categoría de grupo socioeconómico bajo, a medida que se avanza en esta categoría los puntajes van creciendo, sin excepción.

Tabla 110: Puntajes Pruebas SIMCE 4º Básico año 2012, según grupo socio-económico

Grupo Socioeconómico Bajo Medio Bajo Medio Medio Alto Alto Bajo Medio Bajo Medio Medio Alto Alto Bajo Medio Bajo Medio Medio Alto Alto

Prueba

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

N. Alumnos 22847 64311 75278 37240 19172 22802 64277 75248 37312 19187 21972 63748 75175 37304 19173

Media 246.26 253.04 268.31 284.26 300.51 236.79 246.00 262.17 279.20 298.99 232.91 241.89 259.66 277.72 297.52

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 52.45 104.20 377.86 5353 250.30 51.89 116.21 377.25 51.34 108.95 377.25 23146 254.08 51.35 110.93 377.25 49.64 110.67 381.64 24827 269.17 49.66 110.67 377.25 46.04 110.19 377.25 5192 286.24 45.17 124.08 377.25 43.48 122.32 377.25 88 315.76 36.08 216.10 377.25 50.85 84.56 378.54 5338 244.21 50.76 106.76 378.54 48.92 101.58 378.54 23140 247.91 48.95 106.35 378.54 46.80 106.08 378.54 24784 263.34 46.85 106.24 378.54 43.63 107.84 378.54 5196 280.33 43.09 125.76 378.54 41.79 114.20 378.54 90 312.21 37.17 204.34 378.54 46.72 108.34 371.18 5333 237.62 47.02 111.63 371.18 46.59 108.34 371.18 23083 243.60 46.71 109.44 371.18 45.73 111.36 371.18 24796 260.71 46.20 111.36 371.18 42.37 114.66 371.18 5201 278.44 41.73 130.42 371.18 39.29 108.70 371.18 90 309.84 30.10 240.15 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

105 Evaluación Programa Software Educativo – Informe Final

Otra variable interesante de revisar es el logro de aprendizaje alcanzado por los alumnos, según prueba. De esta manera, se identifican tres categorías de logro, la definición de estos estándares se entrega a continuación y es la que está expresada en el documento oficial de “Síntesis de Resultados, SIMCE 4 básico 2012” de la Agencia de Calidad de la Educación:



Nivel de aprendizaje Adecuado: Los estudiantes que alcanzan este Nivel de Aprendizaje han logrado lo exigido en el currículum de manera satisfactoria. Esto implica demostrar que han adquirido los conocimientos y las habilidades básicos estipulados en el currículum para el período evaluado2.



Nivel de Aprendizaje Elemental: Los estudiantes que alcanzan este Nivel de Aprendizaje han logrado lo exigido en el currículum de manera parcial. Esto implica demostrar que han adquirido los conocimientos y las habilidades más elementales estipulados en el currículum para el período evaluado.



Nivel de Aprendizaje Insuficiente: Los estudiantes que quedan clasificados en este nivel no logran demostrar consistentemente que han adquirido los conocimientos y las habilidades más elementales estipulados en el currículum para el período evaluado.

Así, estos estándares corresponden al punto de referencia para determinar el nivel de logro respecto al cumplimiento de los objetivos de aprendizaje estipulados en el currículum vigente.

Por lo tanto a continuación, en la tabla 93, se expresan estas categorías de logro para cada prueba, dadas las definiciones anteriormente señaladas, es razonable esperar que el rango de puntaje observado en cada categoría sea mutuamente excluyente, es decir la categoría insuficiente debería presentar los menores puntajes promedios, para las tres pruebas, luego la categoría elemental corresponde al rango inmediatamente posterior y lo mismo para la categoría adecuado que presenta los mayores puntajes promedios.

106 Evaluación Programa Software Educativo – Informe Final

Tabla 111: Puntajes Pruebas SIMCE 4º Básico año 2012, según Nivel de

Aprendizaje Nivel de Aprendizaje Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado

Prueba

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

N. Alumnos 65508 64435 88905 81152 81552 56122 78688 79094 59590

Media 203.34 263.81 316.36 208.94 269.55 323.50 206.32 265.41 317.07

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 27.33 104.20 240.99 19078 203.39 27.08 110.67 240.99 12.25 241.00 283.99 17667 263.41 12.23 241.00 283.99 22.95 284.00 381.64 21861 314.87 22.24 284.01 377.25 27.63 84.56 244.99 23476 209.25 27.14 106.24 244.99 14.19 245.00 294.99 21799 269.11 14.19 245.00 294.99 21.76 295.00 378.54 13273 321.91 21.12 295.00 378.54 25.96 108.34 240.99 23263 206.42 25.76 109.44 240.99 13.95 241.00 289.99 21603 264.73 13.93 241.00 289.99 20.18 290.00 371.18 13637 316.04 19.84 290.00 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

También es relevante analizar la composición de los establecimientos según distintas características, entre ellas es importante revisar la distribución según dependencia, así para los alumnos no participantes del programa, se aprecia en el gráfico 1 que un 33% de ellos pertenece a un establecimiento municipal, en tanto un 57% de estos alumnos provienen de establecimientos particular subvencionado, mientras que un 10% asisten a un establecimiento particular pagado. Gráfico 1: Distribución según dependencia educacional, para No Participantes del Programa

10% 33%

Municipal P. Subvencionado P. Pagado

57%

Fuente: Elaboración Propia en base a SIMCE 4º 2012

107 Evaluación Programa Software Educativo – Informe Final

Replicando este análisis para los individuos participantes del programa, se observa en el gráfico 2 que un 58% de los alumnos provienen de establecimientos municipales y un 42% a particular subvencionado, mientras que 0% a particular pagado, lo cual se explica porque el programa está enfocado sólo a los dos primeros tipos de dependencia educacional. Gráfico 2: Distribución según dependencia educacional, para Participantes del Programa

0% Municipal

42%

P. Subvencionado

58%

P. Pagado

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Asimismo, es interesante observar la distribución según grupo socioeconómico de los alumnos, se aprecia en el gráfico 3 y 4 esta caracterización para No participantes como Participantes del programa, respectivamente. Se ve que para aquellos alumnos no participantes del programa, un 11% de ellos corresponden a un grupo socioeconómico Bajo, un 26% y 32% son alumnos de grupo socioeconómico Medio Bajo y Medio, respectivamente. Así, un 20% de estos estudiantes son de grupo socioeconómico Medio Alto y finalmente el 12% restante son de grupo socioeconómico Alto.

108 Evaluación Programa Software Educativo – Informe Final

Gráfico

3:

Distribución

grupo

socioeconómico

de

No

Participantes

del

programa

12%

11%

Bajo Medio Bajo

20%

26%

Medio Medio Alto Alto

32% Fuente: Elaboración Propia en base a SIMCE 4º 2012

Observando la distribución de esta variable en los estudiantes participantes del programa, se aprecia que un 9% de ellos son de grupo socioeconómico Bajo, un 39% de grupo socioeconómico Medio Bajo, en tanto un 43% de estos estudiantes corresponden al grupo socioeconómico Medio, mientras que un 9% son de grupo socioeconómico Medio Alto y un 0% de grupo socioeconómico Alto. Gráfico 4: Distribución grupo socioeconómico de Participantes del programa

9% 0% 9%

Bajo Medio Bajo Medio

43%

39%

Medio Alto Alto

Fuente: Elaboración Propia en base a SIMCE 4º 2012

109 Evaluación Programa Software Educativo – Informe Final

Revisando ahora características de los docentes de estos alumnos, se presenta a continuación aspectos relacionados con la obtención del título de los docentes, así como también si tiene o no un postrgado. En esta lógica, los gráficos 6 y 7 reportan la institución donde los docentes han obtenido su título de profesor, en ambos grupos la situación es similar. Un 2% de los docentes encuestados, según el levantamiento de SIMCE, reportan haber obtenido su título en una Escuela Normal, esto sucede en el grupo No Participante del programa como también en los Participantes. Un 69% y 67% de los docentes indica obtener si título en una Universidad Tradicional, para No participantes como Participantes del programa respectivamente. Así un 20%y 23% de los docentes, señala recibir su título de una Universidad Privada, para No participantes como Participantes del programa respectivamente. Siguiendo con esta descripción, un 8%, esto en ambos grupos, obtuvo su título en un Instituto Profesional o Centro de Formación Técnica. En tanto un 2% no responde, esto para No participantes como Participantes del programa. Gráfico 6: Lugar donde obtuvo el Título de Profesor, para No Participantes del Programa Escuela Normal

2% 8%

Universidad Tradicional Universidad Privada

20%

IP o CFT

69%

Estudiante o Egresado de Pedagodía Tiene otro Titulo No responde

Fuente: Elaboración Propia en base a SIMCE 4º 2012

110 Evaluación Programa Software Educativo – Informe Final

Gráfico 7: Lugar donde obtuvo el Título de Profesor, para Participantes del Programa Escuela Normal

2% 8%

Universidad Tradicional Universidad Privada

23% IP o CFT Estudiante o Egresado de Pedagodía

67%

Tiene otro Titulo No responde

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Tal como se mencionó en párrafos anteriores, se muestra en el gráfico 8 si el docente tiene o no un postrago y de qué tipo. Se aprecia una situación similar entre No participantes como Participantes del programa. Específicamente, en cuanto al Diplomado un 12% y 13% señala que sí tiene, esto para No participantes como Participantes del programa respectivamente, en tanto un 88% para el primer grupo y 87% para el segundo, indica que no tienen un Diplomado. Respecto a un Postítulo, un 50%y 46% reporta tener este nivel, esto para No participantes como Participantes del programa respectivamente. Un 5 y 6% indica que tiene un Magíster, esto para No participantes como Participantes del programa respectivamente. Finalmente, se visualiza en el gráfico que un 0% de los encuestados reporta tener un doctorado, esto para ambos grupos.

111 Evaluación Programa Software Educativo – Informe Final

Gráfico 8: Tipo de Postgrado de los docentes 120%

95%

100% 87%

100% 100% 94%

80%

60%

54% 50%

50% 46%

40%

20%

12% 13% 5% 6%

3%

0% 0%

0% No ene

Si ene

Diplomado

No ene

Si ene

Pos tulo Par cipa en el Programa

No ene

Si ene

Magíster No par cipa en el programa

No ene

Si ene

Doctorado

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Observando otras catacterísticas, esta vez relacionadas al hogar del estudiante, se aprecia en el siguiente gráfico 9 la descripción de tenencia de computador en su vivienda. Para aquellos estudiantes participantes del programa se ve que un 71% de ellos si tiene computador en el hogar, en tanto un 29% señala no tener computador. En cuanto a los estudiantes No Participantes del programa, se observa que un 77% de ellos señala tener un computador en su hogar, mientras que el 23% no tiene computador en su vivienda.

112 Evaluación Programa Software Educativo – Informe Final

Gráfico 9: Computador en el hogar 100% 90% 80%

23%

29%

70% 60% 50% 40% 30%

77%

71%

20% 10% 0% Par cipa en el Programa

Si

No par cipa en el programa

No

Fuente: Elaboración Propia en base a SIMCE 4º 2012

En relación a lo anterior, es interesante describir los hogares según su conexión a internet. Es así, que el gráfico 10 reporta esta caracterñistica, donde se ve que un 52% de los hogares de estudiantes Participantes del programa tienen conexión a internet, mientras que en los hogares No participantes del programa, un 63% de estos estudiantes sí tiene conexión a internet. Gráfico 10: Conexión a internet en el hogar 100% 90% 80%

37%

48%

70% 60% 50% 40% 30%

63%

52%

20% 10% 0% Par cipa en el Programa

Si

No par cipa en el programa

No

Fuente: Elaboración Propia en base a SIMCE 4º 2012

113 Evaluación Programa Software Educativo – Informe Final

Siguiendo con la descripción de ciertas características relevantes del hogar, se reporta en los gráficos 11 y 12, el número de lobros en el hogar según No Participantes y Participantes del programa respectivamente. Se observa que ambos gráficos reportan una situación similar, donde destaca con un 44% y 45% respectivamente para No Participantes y Participantes del programa, los hogares que señalan tener entre 10 y 50 libros. Le siguen aquellos hogares que reportan tener

menos de 10 libros, con un 28 y 34% respectivamente para No

Participantes y Participantes del programa. En menor medida están los hogares que indican tener entre 51 y 100 libros en sus viviendas, con un 13% y 10% respectivamente para No Participantes y Participantes del programa. Gráfico 11: Número de libros en el hogar, según No Participantes del Programa

9%

No sabe

2% 5%

Ninguno 13% 28%

Menos de 10 Entre 10 y 50 Entre 51 y 100 Más de 100

44%

No responde

Fuente: Elaboración Propia en base a SIMCE 4º 2012

114 Evaluación Programa Software Educativo – Informe Final

Gráfico 12: Número de libros en el hogar, según Participantes del Programa

10%

No sabe

4%1% 6%

Ninguno Menos de 10 34%

Entre 10 y 50 Entre 51 y 100 Más de 100

45%

No responde Fuente: Elaboración Propia en base a SIMCE 4º 2012

Continuando con la descripción socieconómica del hogar de estos estudiantes, se incluye en los gráficos 13 y 14 la distribución según el nivel educacional alcanzado por los padres de los alumnos. En cuanto a los padres de los estudiantes, se observa un 25% y 21% de ellos reporta tener educación básica, respectivamente para Participantes y No Participantes del programa.

La

gran

mayoría

posee

educación

media,

con

un

55%

y

45%

respectivamente para Participantes y No Participantes del programa. Luego un 3% y 4% señala haber alcanzado educación incompleta en un Instituto Profesional o Centro de Formación Técnica, respectivamente para Participantes y No Participantes del programa, en tanto un 6% y 9%, respectivamente para Participantes y No Participantes del programa, indica tener un título de este nivel. Respecto a la educación universitaria, se observa que un 3% y 4% no terminó este nivel, respectivamente para Participantes y No Participantes del programa, mientras que un 5% y 12% si está titulado en la universidad, respectivamente para Participantes y No Participantes del programa. Finalmente se observa que sólo en el caso de los padres de hijos No Participantes del programa reportan tener estudios de postgrado (3%).

115 Evaluación Programa Software Educativo – Informe Final

Gráfico 13: Nivel de Estudios del padre/padrastro del estudiante 60% 55% 50% 45% 40%

30% 25% 21% 20% 12% 9%

10%

6% 3% 4%

3%

4%

5%

0% 0%

3% 0%

2% 2%

0% No estudió

Educación Básica

Educación Media

Educación Titulado en CFT Educación Titulado en una Incompleta en o IP Incompleta en Universidad CFTo IP una Universidad

No par cipa en el programa

Postgrado

No sabe/No recuerda

Par cipa en el Programa

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Replicando esta descripción para las madres de los estudiantes, se observa un 25% y 20% de ellas reporta tener educación básica, respectivamente para Participantes y No Participantes del programa. Al igual que en el gráfico anterior, la gran mayoría posee educación media, con un 55% y 46% respectivamente para Participantes y No Participantes del programa. Luego un 4%, en ambos casos, señala haber alcanzado educación incompleta en un Instituto Profesional o Centro de Formación Técnica, en tanto un 8% y 12%, respectivamente para Participantes y No Participantes del programa, indica tener un título de este nivel. Respecto a la educación universitaria, se observa que un 2% y 3% no terminó este nivel, respectivamente para Participantes y No Participantes del programa, mientras que un 4% y 10% si está titulada en la universidad, respectivamente para Participantes y No Participantes del programa. Finalmente se observa que sólo en el caso de las madres de hijos No Participantes del programa reportan tener estudios de postgrado (2%).

116 Evaluación Programa Software Educativo – Informe Final

Gráfico 14: Nivel de Estudios de la madre/madrastra del estudiante 60% 55% 50%

46%

40%

30% 25% 20% 20% 12%

10%

8%

10% 4% 4%

2% 3%

1% 2%

4% 0%

2%

1% 1%

0% No estudió

Educación Básica

Educación Media

Educación Titulado en CFT Educación Titulado en una Incompleta en o IP Incompleta en Universidad CFTo IP una Universidad

No par cipa en el programa

Postgrado

No sabe/No recuerda

Par cipa en el Programa

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Finalmente en el gráfico 15 se aprecia una caracterización del hogar según tramo de nivel de ingresos. Se observa una distribución bastante asimétrica, donde existe una mayor concentración en los ingresos bajos, particularmente en los tramos de $200.001-$300.000 (con un 24% y 32% respectivamente para Participantes y No Participantes

del

programa)

y

de

$300.001-$400.000

(con

un

19%

y

23%

respectivamente para Participantes y No Participantes del programa).

117 Evaluación Programa Software Educativo – Informe Final

Gráfico 15: Distribución según tramo de ingreso en el hogar 0% 0%

No sabe/No responde Más de 2.200.000

Entre $1.000.001 y $1.200.000

0% 1% 0% 1% 0% 1% 0% 1% 0% 2% 1% 2% 1%

Entre $800.001 y $1.000.000

2%

Entre $2.000.001 y $400.000 Entre $.1.800.001 y $2.000.000 Entre $.1.600.001 y $1.800.000 Entre $1.400.001 y $1.600.000 Entre $1.200.001 y $1.400.000

Entre $700.001 y $800.000

6%

4% 5%

4%

5% 5%

Entre $600.001 y $700.000

7% 7%

Entre $500.001 y $600.000

11%

Entre $400.001 y $500.000

12% 19%

Entre $300.001 y $400.000

23% 24%

Entre $200.001 y $300.000 8%

Entre $100.001 y $200.000

32%

10%

2% 2%

Menos de $100.000 0%

5%

10% Par cipa en el Programa

15%

20%

25%

30%

35%

No par cipa en el programa

Fuente: Elaboración Propia en base a SIMCE 4º 2012

VIII.2 Uso de la Plataforma En las anteriores secciones se profundizó respecto a este programa que da origen al software educativo, para lo cual Enlaces del Ministerio de Educación le encomendó a cuatro empresas el desarrollo de una plataforma digital para una asignatura y niveles específicos.

En este apartado se describirá el uso que se ha dado a estas plataformas, en los distintos establecimientos, este uso tiene relación con el tiempo en minutos y para este propósito se ajustó esta unidad a horas.

De esta forma, se presentará a continuación un conjunto de histogramas que permitirán revisar la distribución empírica del uso en horas que los alumnos de los establecimientos

seleccionados

han

dado

a

estas

plataformas.

118 Evaluación Programa Software Educativo – Informe Final

En el gráfico 16 se observa la distribución empírica del uso en horas de las plataformas, la cual evidencia el escaso uso que en general se ha otorgado al software, ya que un gran porcentaje se encuentra en cero uso o bien, en un rango cercano a este valor.

Gráfico 16: Histograma del uso total de las plataformas

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Luego se presentan tres gráficos, 17, 18 y 19, que indican la distribución acotando valores superiores y/o considerandando valores sobre cero. Es así que el gráfico 17 reporta la distribución para valores inferiores a 10 horas de uso total (para el total de meses) donde se observa notoriamente el gran procentaje de individuos que se concentran en el cero. El gráfico 18 aporta información para la distribución de horas de uso mayores a 0, donde se aprecia más claramente que el uso es bastante bajo, considerando que se trata de las horas de uso totales para los meses de julio, agosto, septiembre y octubre de 2013 y finalmente el gráfico 19 confirma el rango de valores en los cuales se distribuyen con mayor frecuencia las horas de uso de las plataformas.

119 Evaluación Programa Software Educativo – Informe Final

Gráfico 17: Histograma del uso total de las plataformas, acotado para valores inferiores a 10 horas de uso

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Gráfico 18: Histograma del uso total de las plataformas, acotado para valores superiores a 0 horas de uso

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

120 Evaluación Programa Software Educativo – Informe Final

Gráfico 19: Histograma del uso total de las plataformas, acotado para valores superiores a 0 horas e inferior a 10 horas de uso

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Por lo tanto, con el análisis gráfico recién expuesto se observó que el uso total que se les dio a las plataformas fue bajo, con una gran concentración en el rango 0-2 horas de uso, esto considerando los meses de julio a agosto del año 2013. Es importante además entender el tipo de establecimientos que está haciendo uso del programa. La tabla 112 presenta en su primera columna el tipo de dependencia de los establecimientos

analizados,

en

su

segunda

columna

incluye

el

número

de

establecimientos que reportó el uso dado a las plataformas 16 (independendiente de si es

cero

o

distinto

de

cero),

la

siguiente

columna

señala

el

porcentaje

de

establecimientos en que efectivamente algunos de sus alumnos usó las plataformas, en tanto la última columna indica el número total de horas promedio que estos establecimientos utilizaron el programa. De esta manera, se aprecia en esta tabla que 857 establecimientos de dependencia municipal que reportan el uso que dieron al programa, de los cuales sólo un 70% 16

No todos los establecimientos participantes del programa reportaron el uso que dieron a las plataformas.

121 Evaluación Programa Software Educativo – Informe Final

utilizan efectivamente las plataformas, esto es, que al menos un alumno usó la plataforma correspondiente. Asimismo, el uso total en horas promedio que este tipo de establecimientos

dio

a

las

plataformas

fue

de

1.10

horas.

Respecto

a

los

establecimientos particular subvencionado, se ve que 460 indican el uso a las plataformas, de los cuales un 84% tiene un uso distinto de cero de las mismas, mientras que el uso total promedió 1.70 horas, por lo tanto este tipo de establecimientos son los que dan mayor uso a las plataformas en comparación con los municipales.

Tabla 112: Uso total según Dependencia Educacional

Dependencia Municipal P. Subvencionado

(1) 857 460

Total (2) 70% 84%

(3) 1.10 1.70

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces Nota:

(1) Número de establecimientos que reportó el uso dado a las plataformas. (2) Porcentaje de establecimientos en que efectivamente algunos de sus alumnos usó las plataformas (3) Número total de horas promedio que estos establecimientos utilizaron el programa

Replicando lo anterior, según sector de aprendizaje, se observa en la tabla 113 que respecto al sector de inglés, un 53% de los 295 establecimientos municipales que reportan el uso que dieron a estas plataformas, utilizaron efectivamente el programa, donde el uso total promedioó 0.31 horas. En tanto, para los establecimientos particular subvencionado se ve que un 79% utilizó el programa, de un total de 157 establecimientos que se dispone información de uso, se ve que el promedio de uso total fue de 0.68 horas. Algo más alentadora, es la situación reportada con el sector de matemáticas, ya que en ambos tipos de establecimientos se aprecia un mayor uso en comparación al sector de inglés, un 80% y 86% de los establecimientos municipal y subvencionado respectivamente, utilizaron la plataforma, de un total de 562 establecimientos municipal y 303 establecimientos particular subvencionado de los que se tiene

122 Evaluación Programa Software Educativo – Informe Final

información del uso. Asimismo, es mayor el uso en horas que se reportó para matemáticas, los establecimientos municipales promediaron 1.52 horas de uso total, en tanto los establecimientos particular subvencionado alcanzaron un promedio de 2.23 horas de uso total.

Tabla 113: Uso total según Dependencia Educacional y Sector de Aprendizaje

Dependencia Municipal P. Subvencionado

Sector de Aprendizaje Inglés Matemáticas (1) (2) (3) (1) (2) (3) 295 53% 0.31 562 80% 1.52 157 79% 0.68 303 86% 2.23

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces Nota:

(1) Número de establecimientos que reportó el uso dado a las plataformas. (2) Porcentaje de establecimientos en que efectivamente algunos de sus alumnos usó las plataformas (3) Número total de horas promedio que estos establecimientos utilizaron el programa

La tabla 114 incorpora el uso total de las plataformas según región, destaca la Región XI que reporta un 100% de uso del total de 12 establecimientos que se dispone este tipo de información, promediando un total de 2.14 horas de uso. En el otro extremo se encuentran la Región II y la Región IX, la primera es donde se evidencia un menor porcentaje de establecimientos (61%) que utilizan la plataforma del total de escuelas con información disponible de uso, mientras que la segunda corresponde a la región con el menor horas promedio de uso total (0.76).

123 Evaluación Programa Software Educativo – Informe Final

Tabla 114: Uso Total según Región

Región Región XV Región I Región II Región III Región IV Región V Región RM Región VI Región VII Región VIII Región IX Región XIV Región X Región XI Región XII

(1) 32 16 28 40 62 150 285 98 105 255 100 40 79 12 15

Total (2) 84% 88% 61% 80% 71% 71% 75% 76% 73% 75% 72% 78% 82% 100% 67%

(3) 1.49 1.09 1.04 0.78 1.22 1.20 1.39 1.30 1.13 1.67 0.76 1.13 1.47 2.14 0.82

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces Nota:

(1) Número de establecimientos que reportó el uso dado a las plataformas. (2) Porcentaje de establecimientos en que efectivamente algunos de sus alumnos usó las plataformas (3) Número total de horas promedio que estos establecimientos utilizaron el programa

La tabla 115 reporta el uso según región y sector de aprendizaje, en la cual para la Región XI esta situación se repite, ya que es la región que posee un 100% de uso para ambos sectores, promediando un uso total de 1.86 y 2.28 horas para inglés y matemáticas respectivamente. También se aprecia en esta tabla que la Región II es la que posee el menor porcentaje de establecimientos que utilizan las plataformas de inglés, con un 50% del total de establecimientos que declaran el uso del programa, sin embargo, la región que menor tiempo ha utilizado las plataformas de inglés es la Región XIV con un promedio de 0.16 horas de uso total. En tanto para matemáticas, se observa que es la Región XII quién reporta el menor porcentaje de uso de quienes declaran esta información, no obstante,

124 Evaluación Programa Software Educativo – Informe Final

es la Región III donde se ve un menor tiempo de utilización de estas plataformas, con un promedio de 0.95 horas de uso total. Tabla 115: Uso total según Región y Sector de Aprendizaje

Región (1) Región XV Región I Región II Región III Región IV Región V Región RM Región VI Región VII Región VIII Región IX Región XIV Región X Región XI Región XII

6 5 12 9 23 46 92 32 58 71 39 12 34 4 9

Sector de Aprendizaje Inglés Matemáticas (2) (3) (1) (2) (3) 83% 0.29 26 85% 1.77 80% 0.93 11 91% 1.16 50% 0.57 16 69% 1.39 56% 0.19 31 87% 0.95 74% 0.66 39 69% 1.54 65% 0.32 104 74% 1.59 54% 0.36 193 85% 1.88 59% 0.28 66 83% 1.80 64% 0.44 47 85% 1.97 58% 0.49 184 82% 2.13 62% 0.35 61 79% 1.02 67% 0.16 28 82% 1.54 68% 0.65 45 93% 2.10 100% 1.86 8 100% 2.28 67% 0.59 6 67% 1.18

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces Nota:

(1) Número de establecimientos que reportó el uso dado a las plataformas. (2) Porcentaje de establecimientos en que efectivamente algunos de sus alumnos usó las plataformas (3) Número total de horas promedio que estos establecimientos utilizaron el programa

Lo anterior es un reflejo del bajo uso que se da al programa en general, sin embargo, se aprecia una mayor utilización de las plataformas de matemáticas que de inglés, se presentará a continuación un análisis desagregado por tipo de plataforma, para verificar qué escenario se da en cada una.

No obstante, los resultados encontrados son coincidentes con el levantamiento de información realizado tanto a docentes como jefes de UTP, los cuales declaran que un gran obstáculo para la utilización de estas plataformas es contar con pocos laboratorios

125 Evaluación Programa Software Educativo – Informe Final

de computación y/o cantidad de computadores en relación a la cantidad de estudiantes del establecimiento escolar.

Little Bridge

En el gráfico 20 se observa la distribución empírica del uso en horas de la plataforma Little Bridge, la cual evidencia el escaso uso que se ha dado a esta plataforma de inglés, ya que la utilización del software se concentra en cero uso o bien, en un rango cercano a este valor.

Es así que el gráfico 21 reporta la distribución acotada para valores superiores a 0 e inferiores a 10 horas de uso total (para el total de meses), para observar cómo se distribuyen las horas de uso del software para individuos que efectivamente utilizaron la plataforma, sin embargo, igualmente se aprecia el gran porcentaje de individuos que se concentran a la izquierda del histograma, es decir, confirmando que incluso los que han usado la plataforma ha sido a una baja escala. Gráfico 20: Histograma del uso de la Plataforma Little Bridge

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

126 Evaluación Programa Software Educativo – Informe Final

Gráfico 21: Histograma del uso de la Plataforma Little Bridge, acotado para valores superiores a 0 horas e inferior a 10 horas de uso

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

En la tabla 116 se presenta el uso dado a Little Bridge según dependencia educacional, se aprecia que del total de establecimientos que declaran el uso dado a la plataforma (172) sólo un 57% de ellos utiliza la plataforma, con un promedio de 0.41 horas de uso total. Asimismo para los establecimientos particular subvencionado se aprecia que un 77% de aquellos que declaran información de uso, utilizan efectivamente Little Bridge, con un total de 0.75 horas de uso promedio. Tabla 116: Uso total de la plataforma Little Bridge según Dependencia

Educacional

Dependencia Municipal P. Subvencionado

Little Bridge (1) (2) (3) 172 57% 0.41 92 77% 0.75

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces Nota:

(1) Número de establecimientos que reportó el uso dado a las plataformas. (2) Porcentaje de establecimientos en que efectivamente algunos de sus alumnos usó las plataformas (3) Número total de horas promedio que estos establecimientos utilizaron el programa

127 Evaluación Programa Software Educativo – Informe Final

Desagregando este análisis por región, se presenta a continuación la tabla 117, la cual indica que tanto la Región XI como la Región XV reportan un 100% de uso, respecto al total de establecimientos que entregaron esta información, mientras que la Región Metropolitana presenta el menor porcentaje de uso con un 48% del total. En cuanto al tiempo de uso, se observa que la Región XI promedió 1.94 horas de uso total, convirtiéndose así en la región que en promedio más utilizó esta plataforma, en tanto la Región XIV presentó 0.08 horas promedio de uso total, registrando el mínimo respecto al listado total.

Tabla 117: Uso total de la plataforma Arquimed según Región

Región Región XV Región I Región II Región III Región IV Región V Región RM Región VI Región VII Región VIII Región IX Región XIV Región X Región XI Región XII

Little Bridge (1) (2) (3) 1 100% 1.55 3 67% 1.24 7 71% 0.91 6 50% 0.19 13 92% 0.82 28 75% 0.27 58 48% 0.42 10 80% 0.52 39 67% 0.59 37 59% 0.55 25 64% 0.38 7 71% 0.08 21 62% 0.74 3 100% 1.94 6 67% 0.62

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces Nota:

(1) Número de establecimientos que reportó el uso dado a las plataformas. (2) Porcentaje de establecimientos en que efectivamente algunos de sus alumnos usó las plataformas (3) Número total de horas promedio que estos establecimientos utilizaron el programa

128 Evaluación Programa Software Educativo – Informe Final

English Discovered En el gráfico 22 se observa la distribución empírica del uso en horas de la plataforma Arquimed, también llamada English Discovered, la cual evidencia el escaso uso que se ha dado a esta plataforma de inglés, ya que la utilización del software se concentra en cero uso o bien, en un rango cercano a este valor.

Es así que el gráfico 23 reporta la distribución acotada para valores superiores a 0 e inferiores a 10 horas de uso total (para el total de meses), para observar cómo se distribuyen las horas de uso del software para individuos que efectivamente utilizaron la plataforma, sin embargo, igualmente se aprecia el gran porcentaje de individuos que se concentran a la izquierda del histograma, es decir, confirmando que incluso los que han usado la plataforma ha sido a una baja escala. Gráfico 22: Histograma del uso de la Plataforma Arquimed

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

129 Evaluación Programa Software Educativo – Informe Final

Gráfico 23: Histograma del uso de la Plataforma Arquimed, acotado para valores superiores a 0 horas e inferior a 10 horas de uso

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

En la tabla 118 se presenta el uso dado a Arquimed según dependencia educacional, se aprecia que del total de establecimientos que declaran el uso dado a la plataforma (123) sólo un 46% de ellos utiliza la plataforma, con un promedio de 0.17 horas de uso total. Asimismo para los establecimientos particular subvencionado se aprecia que un 82% de aquellos que declaran información de uso, utilizan efectivamente Arquimed, con un total de 0.58 horas de uso promedio.

Tabla 118: Uso total de la plataforma Arquimed según Dependencia

Educacional

Dependencia Municipal P. Subvencionado

Arquimed (1) (2) (3) 123 46% 0.17 65 82% 0.58

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces Nota:

(1) Número de establecimientos que reportó el uso dado a las plataformas. (2) Porcentaje de establecimientos en que efectivamente algunos de sus alumnos usó las plataformas (3) Número total de horas promedio que estos establecimientos utilizaron el programa

130 Evaluación Programa Software Educativo – Informe Final

Desagregando este análisis por región, se presenta a continuación la tabla 119, la cual indica que tanto la Región I como la Región XI reportan un 100% de uso, respecto al total de establecimientos que entregaron esta información, mientras que la Región II presenta el menor porcentaje de uso con un 20% del total. En cuanto al tiempo de uso, se observa que la Región XI promedió 1.63 horas de uso total, convirtiéndose así en la región que en promedio más utilizó esta plataforma, en tanto la Región XV presentó 0.03 horas promedio de uso total, registrando el mínimo respecto al listado total.

Tabla 119: Uso total de la plataforma Aquimed según Región

Región Región XV Región I Región II Región III Región IV Región V Región RM Región VI Región VII Región VIII Región IX Región XIV Región X Región XI Región XII

(1) 5 2 5 3 10 18 34 22 19 34 14 5 13 1 3

Arquimed (2) (3) 80% 0.03 100% 0.46 20% 0.09 67% 0.19 50% 0.46 50% 0.39 65% 0.26 50% 0.17 58% 0.14 56% 0.42 57% 0.30 60% 0.26 77% 0.52 100% 1.63 67% 0.52

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces Nota:

(1) Número de establecimientos que reportó el uso dado a las plataformas. (2) Porcentaje de establecimientos en que efectivamente algunos de sus alumnos usó las plataformas (3) Número total de horas promedio que estos establecimientos utilizaron el programa

131 Evaluación Programa Software Educativo – Informe Final

Galileo En el gráfico 24 se observa la distribución empírica del uso en horas de la plataforma Galileo, la cual evidencia el escaso uso que se ha dado a esta plataforma de matemáticas, ya que la utilización del software se concentra en cero uso o bien, en un rango cercano a este valor.

Es así que el gráfico 25 reporta la distribución acotada para valores superiores a 0 e inferiores a 10 horas de uso total (para el total de meses), para observar cómo se distribuye la utilización del software para individuos que efectivamente usaron la plataforma, sin embargo, a pesar de que es notorio el hecho que se utilizaron más que las plataformas de inglés, igualmente se aprecia una mayor concentración a la izquierda del histograma, es decir, confirmando que incluso los que han usado la plataforma ha sido a una baja escala.

Gráfico 24: Histograma del uso de la Plataforma Galileo

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

132 Evaluación Programa Software Educativo – Informe Final

Gráfico 25: Histograma del uso de la Plataforma Galileo, acotado para valores superiores a 0 horas e inferior a 10 horas de uso

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

En la tabla 120 se presenta el uso dado a Galileo según dependencia educacional, se aprecia que del total de establecimientos que declaran el uso dado a la plataforma (316) un 90% de ellos utiliza la plataforma, con un promedio de 1.67 horas de uso total. Asimismo para los establecimientos particular subvencionado se aprecia que un 91% de aquellos que declaran información de uso, utilizan efectivamente Galileo, con un total de 2.42 horas de uso promedio. Tabla 120: Uso total de la plataforma Galileo según Dependencia Educacional

Dependencia Municipal P. Subvencionado

Galileo (1) (2) (3) 316 90% 1.67 173 91% 2.42

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces Nota:

(1) Número de establecimientos que reportó el uso dado a las plataformas. (2) Porcentaje de establecimientos en que efectivamente algunos de sus alumnos usó las plataformas (3) Número total de horas promedio que estos establecimientos utilizaron el programa

133 Evaluación Programa Software Educativo – Informe Final

Desagregando este análisis por región, se presenta a continuación la tabla 121, la cual indica que en términos generales la mayoría de los establecimientos han usado la plataforma, destacan tanto la Región I como la Región XI que reportan un 100% de uso, respecto al total de establecimientos que entregaron esta información, mientras que la Región XII presenta el menor porcentaje de uso con un 67% del total. En cuanto al tiempo de uso, se observa que la Región VIII promedió 2.69 horas de uso total, en tanto la Región I presentó 0.60 horas promedio de uso total. Tabla 121: Uso total de la plataforma Galileo según Región

Región Región XV Región I Región II Región III Región IV Región V Región RM Región VI Región VII Región VIII Región IX Región XIV Región X Región XI Región XII

(1) 14 7 8 19 21 62 118 33 30 94 34 18 24 4 3

Galileo (2) 79% 100% 88% 95% 86% 89% 91% 94% 93% 94% 82% 89% 96% 100% 67%

(3) 0.78 0.60 1.61 0.80 1.98 2.12 1.96 1.82 2.32 2.69 1.23 1.35 1.57 1.88 1.53

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces Nota:

(1) Número de establecimientos que reportó el uso dado a las plataformas. (2) Porcentaje de establecimientos en que efectivamente algunos de sus alumnos usó las plataformas (3) Número total de horas promedio que estos establecimientos utilizaron el programa

134 Evaluación Programa Software Educativo – Informe Final

Mi Clase En el gráfico 26 se observa la distribución empírica del uso en horas de la plataforma Mi Clase, la cual evidencia el escaso uso que se ha dado a esta plataforma de matemáticas, ya que la utilización del software se concentra en cero uso o bien, en un rango cercano a este valor.

Es así que el gráfico 27 reporta la distribución acotada para valores superiores a 0 e inferiores a 10 horas de uso total (para el total de meses), para observar cómo se distribuye la utilización del software para individuos que efectivamente usaron la plataforma, sin embargo, a pesar de que es notorio el hecho que se utilizaron más que las plataformas de inglés, igualmente se aprecia una mayor concentración a la izquierda del histograma, es decir, confirmando que incluso los que han usado la plataforma ha sido a una baja escala.

Gráfico 26: Histograma del uso de la Plataforma Mi Clase

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

135 Evaluación Programa Software Educativo – Informe Final

Gráfico 27: Histograma del uso de la Plataforma Mi Clase, acotado para valores superiores a 0 horas e inferior a 10 horas de uso

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

En la tabla 122 se presenta el uso dado a Mi Clase según dependencia educacional, se aprecia que del total de establecimientos que declaran el uso dado a la plataforma (246) sólo un 66% de ellos utiliza la plataforma, con un promedio de 1.32 horas de uso total. Asimismo para los establecimientos particular subvencionado se aprecia que un 79% de aquellos que declaran información de uso, utilizan efectivamente Mi Clase, con un total de 1.97 horas de uso promedio. Tabla 122: Uso total de la plataforma Mi Clase según Dependencia Educacional

Dependencia Municipal P. Subvencionado

(1) 246 130

Mi Clase (2) (3) 66% 1.32 79% 1.97

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces Nota:

(1) Número de establecimientos que reportó el uso dado a las plataformas. (2) Porcentaje de establecimientos en que efectivamente algunos de sus alumnos usó las plataformas (3) Número total de horas promedio que estos establecimientos utilizaron el programa

136 Evaluación Programa Software Educativo – Informe Final

Desagregando este análisis por región, se presenta a continuación la tabla 123, la cual indica que la Región XI reporta un 100% de uso, respecto al total de establecimientos que entregaron esta información, mientras que la Región II y Región IV presentan el menor porcentaje de uso con un 50% del total, cada una. En cuanto al tiempo de uso, se observa que la Región XV promedió 2.92 horas de uso total, en tanto la Región VIII presentó 0.76 horas promedio de uso total. Tabla 123: Uso total de la plataforma Mi Clase según Región

Región Región XV Región I Región II Región III Región IV Región V Región RM Región VI Región VII Región VIII Región IX Región XIV Región X Región XI Región XII

(1) 12 4 8 12 18 42 75 33 17 90 27 10 21 4 3

Mi Clase (2) 92% 75% 50% 75% 50% 52% 76% 73% 71% 70% 74% 70% 90% 100% 67%

(3) 2.92 2.14 1.17 1.19 1.03 0.81 1.78 1.36 1.54 0.76 1.88 2.69 2.68 0.82 1.76

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces Nota:

(1) Número de establecimientos que reportó el uso dado a las plataformas. (2) Porcentaje de establecimientos en que efectivamente algunos de sus alumnos usó las plataformas (3) Número total de horas promedio que estos establecimientos utilizaron el programa

Si bien los histogramas presentados en las páginas anteriores dan cuenta de que el uso que se da a las distintas plataformas es muy bajo, lo cual también se verificó según meses, se presenta a continuación la tabla 104 que confirma que además el bajo uso que se da a las plataformas, es baja la tasa de individuos que están ingresando al software, donde las plataformas que más participación reportan son las

137 Evaluación Programa Software Educativo – Informe Final

de matemáticas, con Galileo con un 59% de participación, seguido por Mi Clase con un 47%, en tanto ambas plataformas orientadas a Inglés presentan la más baja participación, con un 34% y 35% para Little Bridge y Arquimed respectivamente.

Tabla 124: Porcentaje de individuos que utilizan las plataformas

Porcentaje de uso

N de individuos

Arquimed

35%

14484

Galileo

59%

26759

Little Bridge

34%

18375

Mi Clase

47%

14972

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Dado lo anterior, es posible concluir que aunque el uso que se da a las plataformas es bajísimo, comportamiento que se repite independiente del mes en que se analice, o bien de la plataforma que se observe, se aprecia que las plataformas de matemáticas son las que presentan mayor participación respecto a las de inglés.

138 Evaluación Programa Software Educativo – Informe Final

VIII.3 Resultado SIMCE y Uso de Plataforma

Análisis Curva de Distribución Acumulada Aquí se entregará un análisis respecto los resultados SIMCE y el Uso de la Plataforma, principalmente para evidenciar si aquellos establecimientos participantes del programa, es decir que fueron seleccionados para utilizar el software educativo, presentan o no diferencias en los puntajes SIMCE respecto a aquellos establecimientos que no participan del programa.

Lenguaje y Comunicación

En el gráfico 28 se presenta la distribución acumulada del puntaje SIMCE en Lenguaje y Comunicación según el estatus de participación del programa.

Gráfico 28: Distribución Acumulada Prueba Lenguaje y Comunicación

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

Se observa que la distribución acumulada de los estudiantes participante del programa domina estocásticamente en primer orden a la distribución acumulada de los alumnos no participantes del programa. Esto es, para cualquier puntaje SIMCE, la curva de los

139 Evaluación Programa Software Educativo – Informe Final

alumnos no participantes del programa está bajo la de participantes, lo que indica que a igual porcentaje acumulado de participantes y no participantes, los estudiantes participantes obtienen un mayor puntaje. En otras palabras esto permite verificar si existen brechas entre los logros obtenidos en las distintas pruebas.

Matemáticas

En el gráfico 29 se presenta la distribución acumulada del puntaje SIMCE en Matemáticas, según el estatus de participación del programa. Se observa que la distribución

acumulada

de

los

estudiantes

participante

del

programa

domina

estocásticamente en primer orden a la distribución acumulada de los alumnos no participantes del programa. Esto es, para cualquier puntaje SIMCE, la curva de los alumnos no participantes del programa está bajo la de participantes, lo que indica que a igual porcentaje acumulado de participantes y no participantes, los estudiantes participantes obtienen un mayor puntaje. En otras palabras esto permite verificar si existen brechas entre los logros obtenidos en las distintas pruebas.

Gráfico 29: Distribución Acumulada Prueba Matemática

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

140 Evaluación Programa Software Educativo – Informe Final

Historia, Geografía y Ciencias Sociales En el gráfico 30 se presenta la distribución acumulada del puntaje SIMCE en Historia, Geografía y Ciencias Sociales, según el estatus de participación del programa. Se observa que la distribución acumulada de los estudiantes participante del programa domina estocásticamente en primer orden a la distribución acumulada de los alumnos no participantes del programa. Esto es, para cualquier puntaje SIMCE, la curva de los alumnos no participantes del programa está bajo la de participantes, lo que indica que a igual porcentaje acumulado de participantes y no participantes, los estudiantes participantes obtienen un mayor puntaje. En otras palabras esto permite verificar si existen brechas entre los logros obtenidos en las distintas pruebas.

Gráfico 30: Distribución Acumulada Prueba Historia, Geografía y Ciencias Sociales

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

Análisis Correlaciones A continuación se presenta la tabla 125, la cual incluye las correlaciones entre el uso de las plataformas y los resultados de la prueba SIMCE. De esta manera, se reporta en un primer bloque, las correlaciones generadas en el sector de matemáticas y luego en el segundo bloque según el sector de aprendizaje de inglés.

141 Evaluación Programa Software Educativo – Informe Final

Dicho lo anterior, se menciona que en general las correlaciones observadas son bajas, cercanas a cero, por su parte poseen signo positivo para aquellos individuos que sí usaron las plataformas y negativo para aquellos que no usaron las plataformas. Sin embargo, dada la temporalidad en la cual se aplicó el programa, se podría inferir que a quienes mejor les va en el SIMCE tienden a utilizar más las plataformas, si bien esto no es posible de contrastar, resulta más interesante analizar la causalidad de sentido inverso, es decir ¿Un mayor uso en las plataformas causa mejores resultados en el SIMCE? Para esto, se debería realizar un diseño de evaluación de impacto y por cierto contar con un calendario de la prueba SIMCE posterior a la aplicación del programa, lo que será discutido en una sección que desarrollará este punto, en una próxima entrega comprometida. Por lo tanto, dada la magnitud de estas correlaciones no es posible inferir más sobre la relación existente, independiente de su dirección, entre el puntaje SIMCE y el uso de las plataformas, ya que pareciera no haber relación entre ambas variables, o bien, es muy sutil, lo cual es coherente con lo analizado en las secciones anteriores donde en en términos globales el uso de las plataformas es bajísimo, y esto es transversal según dependencia educacional, región, sector de aprendizaje o mes de análisis, y por tanto podría tomar relevancia aquellos aspectos que se mencionaron en la encuesta a docentes y jefes de UTP que levantó alertas sobre los obstáculos que enfrentaban los establecimientos para dar uso a estas plataformas. Tabla 125: Correlación entre sector de Aprendizaje y Pruebas SIMCE

Resultado Prueba SIMCE Lenguaje Matemáticas Historia

Plataformas Matemática Uso No Uso 0.01 -0.06 0.02 -0.06 0.02 -0.07

Uso 0.01 0.03 0.00

Inglés No Uso -0.02 -0.04 -0.02

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

142 Evaluación Programa Software Educativo – Informe Final

VIII.4 Resultado Nivel de logro según grupo y plataforma En los puntos anteriores, se revisó la situación de quienes eran beneficiarios del programa y aquellos que no lo eran, según datos del SIMCE 2012 de cuarto básico, con el fin de analizar las diferencias o similitudes que habían entre ambos tipos de individuos antes de aplicar el programa. Además se presentó un análisis de uso de las plataformas que compone este programa, para entender el escenario sobre el cual se describirán luego los resultados de las pruebas que fueron aplicadas a un grupo de control y tratamiento, que fue seleccionado por la contraparte, en las cuatro plataformas17.

De esta manera, es importante revisar si existen o no resultados relevantes al comparar ambos grupos, sin embargo, por las características en las cuales fue desarrollado este programa no es posible llevar a cabo una evaluación de impacto, principalmente porque no se cuenta con información de ambos grupos al inicio del programa y después de un tiempo de aplicación, sólo se tiene este último levantamiento para ambos grupos, pero sólo para algunos establecimientos, lo cual es un obstáculo adicional para llevar a cabo una evaluación de impacto, ya que habría que revisar si el tamaño muestral aún proporciona un poder estadístico apropiado y por otro lado considerar el sesgo generado por la falta de participación de los establecimientos pertenecientes al grupo de tratamiento pero mayoritariamente al de control.

Por otra parte, se deben considerar ciertos criterios para realizar la construcción de un contrafactual, y tal como se revisará en esta sección, no es concluyente que ambos grupos sean similares, ni mucho menos que hayan sido expuestos a las mismas condiciones.

Sumado a lo anterior, es evidente una falta de seguimiento por parte de los encargados del programa, a los establecimientos participantes del programa, que

El equipo consultor aún está a la espera del envío de información para el desarrollo de un anexo al informe que discuta aspectos relacionados a la evaluación de impacto. 17

143 Evaluación Programa Software Educativo – Informe Final

hubiese incluido un contínuo monitoreo del mismo, de tal forma de asegurar una fidelidad óptima de implementación.18

De acuerdo a lo recién descrito, se desarrollará a continuación una descripción de los grupos de tratamiento y control en base a sus resultados SIMCE y además en base al levantamiento de la prueba según plataforma.

English Discovered

A continuación se presenta el Gráfico 31, que indica el logro obtenido en la plataforma English Discovered, donde se aprecia que aquellos establecimientos del grupo de tratamiento obtienen mejores resultados que aquellos del grupo de control, no obstante, no podemos asegurar que esto efectivamente es atribuible a un efecto del programa, ya que no se tiene información respecto a la situación inicial ni tampoco certeza de haber asegurado las condiciones para realizar la evaluación de impacto.

Gráfico 31: Resultado Enlace según grupo control y tratamiento

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

18

En una próxima entrega se desarrollará un capítulo que discutirá aspectos escenciales relacionados a la evaluación de impacto.

144 Evaluación Programa Software Educativo – Informe Final

El gráfico 32, señala que si bien los individuos del grupo de tratamiento poseen mejores resultados que aquellos del grupo de control, se aprecia que los hombres logran mejores resultados que las mujeres en el grupo de tratamiento, lo cual no es posible afirmar en el grupo de control, ya que tanto a mujeres como hombres obtienen puntajes similares. Gráfico 32

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

El gráfico 33, presenta información desagregada por dependencia educacional, donde se observa que al interior del grupo de control no hay diferencias entre el puntaje de establecimientos municipales y particular subvencionado, no obstante, en conjunto obtienen menores puntajes que el grupo de tratamiento, en el cual los particulares subvencionados obtienen un mayor puntaje que aquellos de establecimiento municipal.

145 Evaluación Programa Software Educativo – Informe Final

Gráfico 33

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Luego, el gráfico 34 reporta los puntajes desglosados según grupo socioeconómico. Así, en el grupo de control el grupo socioeconómico Bajo, reporta resultados mayores que los demás grupos dentro del conjunto de establecimientos controles. En tanto, para aquellos establecimientos del grupo de tratamiento se ve que en conjunto obtienen mejores resultados que el contrafactual, no obstante, tanto el grupo socioeconómico Medio Bajo y Medio Alto logran puntajes inferiores a los otros dos grupos socioeconómicos. Gráfico 34

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

146 Evaluación Programa Software Educativo – Informe Final

Otro aspecto interesante de observar, para complementar los resultados recién presentados, es verificar cómo son los puntajes obtenidos en las tres pruebas SIMCE del año 2012, para el nivel cuarto básico entre ambos grupos, tratamiento y control. A continuación se presentan los gráficos 35, 36, 37 y 38, con los resultados para quienes rindieron la prueba de la plataforma English Discovered según total, género, dependencia y grupo socioeconómico, respectivamente. En todos los casos se aprecia que el grupo de tratamiento obtiene mejores resultados que el grupo de control. Lo cual evidencia que para realizar la evaluación de impacto de este programa es imprescindible asegurar que no existan diferencias significativas entre ambos grupos.

Gráfico 35

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

147 Evaluación Programa Software Educativo – Informe Final

Gráfico 36

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Gráfico 37

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

148 Evaluación Programa Software Educativo – Informe Final

Gráfico 38

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Un aspecto importante de revisar es la correlación entre esta plataforma y los puntajes obtenidos en las pruebas de Lenguaje y Comunicación, Matemáticas e Historia, así como también respecto al uso de la plataforma. En la tabla 126 se aprecia esta información, la cual indica que la correlación es cercana a cero entre English Discovered y las pruebas SIMCE, algo mayor es la correlación encontrada con el uso dado a la plataforma, sin embargo, con signo negativo. Tabla 126: Correlación English Discovered y Puntaje en Pruebas

Variables Ptje. Lenguaje Ptje .Matemáticas Ptje. Historia Uso de Plataforma

English Discovered -0.01 -0.04 -0.04 -0.17

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

Tal como hemos revisado en los gráficos anteriores, los resultados obtenidos tanto para el grupo de control como el de tratamiento, se presenta a continuación la tabla 127 para verificar si las diferencias obtenidas entre ambos grupos son o no

149 Evaluación Programa Software Educativo – Informe Final

significativas, sin embargo, en términos generales se observa que en ningún caso existe una diferencia estadísticamente significativa al 95% entre grupo de control y tratamiento. Tabla 127: Test de significancia English Discovered

English Discovered Resultado Pruebas Ptje. Lenguaje Ptje .Matemáticas Ptje. Historia Resultado English Dis.

Control 265.48 259.04 255.89 21.54

Tratamiento 266.63 262.64 257.40 22.60

Dif -1.15 -3.60 -1.51 -1.06

test t -0.61 -1.95 -0.85 -2.60

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

Little Bridge

Replicando este análisis para la plataforma Little Bridge, se aprecia en el gráfico 39 un escenario similar al de la plataforma English Discovered, en el cual el grupo de tratamiento constantemente obtiene mejores resultados que el grupo de control. Específicamente esta prueba involucra dos test por un lado la prueba Listenning y por otro de Read/Writen. Gráfico 39

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

150 Evaluación Programa Software Educativo – Informe Final

Verificando esta situación por género, los tratados consiguen mejores logros que aquellos que no se les aplicó el programa, no obstante, tal como se ha mencionado anteriormente, no podemos concluir que esto corresponde a un efecto del programa puesto que no conocemos al contrafactual al inicio del programa, así como tampoco, las condiciones bajo las cuales fueron seleccionados. Gráfico 40

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

En el gráfico 41 se reporta el diagnóstico por dependencia educacional, para aquellos establecimientos municipales, el escenario que se ha venido describiendo se replica, sin embargo, para aquellos establecimientos particular subvencionado sucede que aquellos del grupo de control les va mejor que el grupo de tratamiento. Nuevamente, dado que no conocemos la situación inicial, ni el diseño bajo el cual fueron seleccionados ambos grupos, no podemos afirmar que esto corresponde a un efecto negativo del programa, es más, ni siquiera referirnos a un resultado atribuible al programa.

151 Evaluación Programa Software Educativo – Informe Final

Gráfico 41

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Luego el gráfico 42, señala el desglose por grupo socioeconómico, en el cual no hay una tendencia clara respecto a qué grupo socioeconómico le va mejor en esta prueba, y dada las observaciones encontradas, tampoco es posible afirmar que les va mejor que el grupo de control. Gráfico 42

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

152 Evaluación Programa Software Educativo – Informe Final

Los gráficos siguientes presentan información respecto al puntaje SIMCE 2012 para cuarto básico, según el total de establecimientos (43), género (44), dependencia (45) y grupo socioeconómico (46), Al igual que en la plataforma ya analizada, se observa un mejor rendimiento de los establecimientos del grupo de tratamiento. Gráfico 43

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Gráfico 44

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

153 Evaluación Programa Software Educativo – Informe Final

Gráfico 45

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Gráfico 46

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Un aspecto importante de revisar es la correlación entre esta plataforma y los puntajes obtenidos en las pruebas de Lenguaje y Comunicación, Matemáticas e Historia, así como también respecto al uso de la plataforma. En la tabla 128 se aprecia esta información, la cual indica que la correlación es cercana a cero entre Little Bridge y las pruebas SIMCE, algo mayor es la correlación encontrada con el uso dado a la plataforma, donde se ve una correlación positiva entre ambas variables.

154 Evaluación Programa Software Educativo – Informe Final

Tabla 128: Correlación Little Bridge y Puntaje en Pruebas

Variables Ptje. Lenguaje Ptje .Matemáticas Ptje. Historia Uso de Plataforma

Little Bridge Listening Read/Write 0.06 0.04 0.05 0.04 0.07 0.06 0.20 0.22

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

Tal como hemos revisado en los gráficos anteriores, los resultados obtenidos tanto para el grupo de control como el de tratamiento, se presenta a continuación la tabla 129 para verificar si las diferencias obtenidas entre ambos grupos son o no significativas.

Se

aprecia

que

en

términos

generales

existe

una

diferencia

estadísticamente significativa al 95% entre grupo de control y tratamiento, a excepción del puntaje obtenido en la prueba de Read/Write.

Tabla 129: Test de significancia Little Bridge

Little Bridge Resultado Pruebas Ptje. Lenguaje Ptje .Matemáticas Ptje. Historia Resultado Listening Resultado Read/Write

Control 260.39 254.40 251.65 0.42 1.26

Tratamiento 264.61 260.50 257.08 0.35 1.41

Dif -4.22 -6.10 -5.43 0.36 -0.15

test t -3.84 -5.81 -5.28 2.32 -1.82

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

155 Evaluación Programa Software Educativo – Informe Final

Galileo Revisando el escenario resultante para la plataforma Galileo, se ve en el gráfico 47 que aquellos establecimientos del grupo de control logran un menor puntaje que aquellos del grupo de tratamiento, para saber si esto es o no un efecto del programa se deberá realizar un correcto diseño y aplicación de una evaluación de impacto, donde se asegure tener un contrafactual bien definido.

Gráfico 47

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Observando el gráfico 48 con la desagregación según género, sucede que si bien dentro de cada grupo las mujeres presentan mejores resultados, nuevamente el conjunto de establecimientos del grupo de tratamiento rinde mejor que aquellos del grupo de control.

156 Evaluación Programa Software Educativo – Informe Final

Gráfico 48

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Similar escenario se observa en el gráfico 49, donde el grupo de tratados presenta mejores logros en puntaje de la prueba de la plataforma Galileo. Observando al interior de cada grupo, se aprecia que los establecimientos particulares subvencionados alcanzan un puntaje mayor que los municipales. Gráfico 49

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Respecto a reporte por grupo socioeconómico, se ve en el gráfico 50 que no hay una tendencia clara al interior del grupo de establecimientos controles, no obstante, en conjunto obtienen menores logros que los establecimientos tratados, en donde sí se

157 Evaluación Programa Software Educativo – Informe Final

aprecia una mejora en el puntaje a medida que se avanza desde el grupo socioeconómico Bajo a Medio Alto. Gráfico 50

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

A continuación se presenta para los establecimientos que rindieron la prueba de la plataforma Galileo los resultados según grupo de tratamiento y control, en las pruebas SIMCE 2012 para cuarto básico. Se reporta que los establecimientos de tratados son superiores en el puntaje obtenido que aquellos de controles. En los gráficos 51, 52, 53 y 54 se presenta el desglose según el total, género, dependencia educacional y grupo socioeconómico.

158 Evaluación Programa Software Educativo – Informe Final

Gráfico 51

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

Gráfico 52

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

159 Evaluación Programa Software Educativo – Informe Final

Gráfico 53

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

Gráfico 54

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

160 Evaluación Programa Software Educativo – Informe Final

Un aspecto importante de revisar es la correlación entre esta plataforma y los puntajes obtenidos en las pruebas de Lenguaje y Comunicación, Matemáticas e Historia, así como también respecto al uso de la plataforma. En la tabla 130 se aprecia esta información, la cual indica que la correlación es cercana a cero entre Mi Clase y las pruebas SIMCE, algo mayor es la correlación encontrada con el uso dado a la plataforma, sin embargo, con signo negativo.

Tabla 130: Correlación Galileo y Puntaje en Pruebas

Variables

Galileo

Ptje. Lenguaje Ptje .Matemáticas Ptje. Historia Uso de Plataforma

-0.01 -0.04 -0.04 -0.17

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

Tal como hemos revisado en los gráficos anteriores, los resultados obtenidos tanto para el grupo de control como el de tratamiento, se presenta a continuación la tabla 131 para verificar si las diferencias obtenidas entre ambos grupos son o no significativas. Se aprecia que en términos generales no existe una diferencia estadísticamente significativa al 95% entre grupo de control y tratamiento, a excepción del puntaje obtenido en la prueba rendida de esta plataforma Galileo. Tabla 131: Test de significancia Galileo

Galileo Resultado Pruebas Ptje. Lenguaje Ptje .Matemáticas Ptje. Historia Resultado Galileo

Control 265.87 255.41 255.37 49.07

Tratamiento 264.17 257.52 254.45 44.91

Dif 1.69 -2.11 1.78 4.16

test t 0.88 -1.16 0.52 5.69

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

161 Evaluación Programa Software Educativo – Informe Final

Mi Clase

Otra plataforma incluida en este programa fue Mi Clase, al igual que Galileo se basa en la asignatura de Matemáticas. De esta manera, a continuación se desprende el análisis realizado según el grupo de tratamiento y control.

El gráfico 55 presenta información relacionada al puntaje de ambos grupos, se ve que el grupo de tratamiento presenta mejores resultados promedio que el grupo de control. Sin embargo, es un análisis puramente descriptivo, puesto que no podemos asumir causalidad en este reporte.

Gráfico 55

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Al desagregar estos resultados por género se aprecia que al interior del grupo de control no existen diferencias importantes entre hombres y mujeres. Lo mismo sucede al revisar el grupo de tratamiento. No obstante, se observa que el grupo de tratamiento obtiene mejores resultados que el grupo de control.

162 Evaluación Programa Software Educativo – Informe Final

Gráfico 56

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

A continuación se expone en el gráfico 57 los resultados según dependencia educacional. Se aprecia que aquellos establecimientos educacionales particular subvencionado logran mejores resultados en esta prueba que los establecimientos municipales. Gráfico 57

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

163 Evaluación Programa Software Educativo – Informe Final

Luego, el gráfico 58 presenta el resultado obtenido por grupo socioeconómico, se observa que para el caso del grupo de control mientras más cercano al grupo socioeconómico más alto, son mayores los resultados en las pruebas, situación que también se presenta para el grupo de tratamiento. Gráfico 58

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

Finalmente, los gráficos 59, 60, 61 y 62 incluyen los puntajes SIMCE 2012 para cuarto básico, obtenidos por los grupos de tratamiento y control que rindieron esta plataforma,

según

socioeconómico.

En

total

y

términos

desglosados globales,

por

todos

género, los

dependencia

gráficos

reportan

y

grupo

un

mejor

rendimiento en el grupo de tratados que en el de control.

164 Evaluación Programa Software Educativo – Informe Final

Gráfico 59

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

Gráfico 60

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

165 Evaluación Programa Software Educativo – Informe Final

Gráfico 61

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

Gráfico 62

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

Un aspecto importante de revisar es la correlación entre esta plataforma y los puntajes obtenidos en las pruebas de Lenguaje y Comunicación, Matemáticas e Historia, así como también respecto al uso de la plataforma. En la tabla 132 se aprecia esta información, la cual indica que la correlación es positiva y cercana a 0.1 entre Mi Clase y las pruebas SIMCE de Lenguaje y Matemáticas, sin embargo es cercana a cero entre

166 Evaluación Programa Software Educativo – Informe Final

esta plataforma y la prueba de Historia, así como también respecto al uso de la plataforma.

Tabla 132: Correlación Mi Clase y Puntaje en Pruebas

Variables

Mi Clase

Ptje. Lenguaje Ptje .Matemáticas Ptje. Historia Uso de Plataforma

0.10 0.11 0.07 0.03

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

Tal como hemos revisado en los gráficos anteriores, los resultados obtenidos tanto para el grupo de control como el de tratamiento, se presenta a continuación la tabla 133 para verificar si las diferencias obtenidas entre ambos grupos son o no significativas. Se aprecia que en términos generales no existe una diferencia estadísticamente significativa al 95% entre grupo de control y tratamiento.

Tabla 133: Test de significancia Mi Clase

Mi Clase Resultado Pruebas Ptje. Lenguaje Ptje .Matemáticas Ptje. Historia Resultado Mi Clase

Control 263.30 258.04 253.39 4.89

Tratamiento 262.15 255.67 251.98 4.99

Dif 1.15 2.37 1.41 -0.09

test t 0.86 1.87 1.15 -1.35

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

167 Evaluación Programa Software Educativo – Informe Final

IX.

Conclusiones

Luego del análisis realizado de los grupos focales, encuestas a docentes y jefes de UTP, resultados de aplicación de evaluaciones diagnóstica y final y tiempos de uso de las plataformas es posible considerar que uno de los aspectos mejor evaluados de las plataformas educativas, es que la mayoría de éstas presenta los contenidos por niveles (de lo más básico a lo más complejo), lo cual permite al docente pasar los contenidos acorde a las características de los estudiantes. Asimismo, uno de los aspectos claves para que el programa software educativo pueda implementarse de manera adecuada en el establecimiento escolar, es que éste cuente con un equipamiento e infraestructura adecuada. Al respecto, a partir de los grupos focales se concluyó en este sentido, que resulta fundamental que exista en los establecimientos la misma cantidad de computadores que estudiantes. De esta manera, del levantamiento realizado en los grupos focales y del análisis de las encuestas realizadas, uno de los principales obstáculos para la implementación de las plataformas es contar con pocos laboratorios de computación y/o cantidad de computadores en relación a la cantidad de estudiantes del establecimiento escolar. Al respecto, algunos participantes manifestaron que el hecho de que dos o más alumnos trabajen en un mismo computador, tiene impactos negativos en el proceso de aprendizaje de los alumnos, ya que el docente se ve imposibilitado de registrar el avance de cada uno de éstos en la plataforma. Así también, a partir de lo expuesto por docentes y jefes de UTP que participaron en los grupos focales, otro elemento que facilita la implementación del software, es que el establecimiento escolar cuente con una adecuada conexión a internet y con un Encargado de Enlaces. Es así como se presenta como un principal obstáculo a la implementación del software las dificultades con la conexión a internet, tema que fue recurrente en la mayoría de los participantes y que se corrobora con las respuestas entregadas tanto por docentes como jefes de UTP a las encuestas realizadas.

168 Evaluación Programa Software Educativo – Informe Final

Por su parte, otro obstáculo a la implementación, específico de las plataformas de inglés, es que hay establecimientos que no cuentan con audífonos para todos los estudiantes. Otros obstáculos guardan relación con la calidad de los computadores. Algunos de ellos, presentan dificultades para instalar java o bien son muy lentos. Adicional a lo anterior, otro obstáculo tiene relación con las características de la sala de computación. Muchas veces sucede que los implementos se pierden y cuesta controlar a los estudiantes para que no ingresen a páginas que no corresponden. Respecto al análisis de los resultados en este informe se puede segmentar en seis puntos principales: 

La aplicación de los instrumentos a los docentes y Jefes de UTP, reveló características que podrían explicar el bajo uso de las plataformas, las cuales tienen relación con problemas de conexión a internet y problemas de conexión dentro de los establecimientos.



El análisis de los resultados SIMCE para caracterizar a los establecimientos y alumnos. Lo cual reportó resultados que se han evidenciado en otros estudios, esto es, en la prueba de lenguaje, las mujeres obtienen un mayor puntaje promedio que hombres, en tanto ellos rinden mejor en Matemáticas e Historia. Por otra parte, respecto a regiones no se presentan grandes diferencias a lo largo del país, en tanto al revisar los resultados según dependencia se reporta que aquellos alumnos pertenecientes a establecimientos municipales obtienen menor puntaje promedio que los alumnos de establecimientos particular subvencionado

y

particular

pagado,

donde

estos

últimos

logran

mejor

rendimiento. Asimismo, respecto al grupo socioeconómico, se reporta que a medida que se avanza en las categorías desde Bajo hasta Alto, los puntajes van en constante aumento. 

Se hizo un reporte del uso, en horas, de las plataformas del software educativo, tanto para inglés como para matemática, asimismo se realizó un análisis desagregado por tipo de plataforma y mes, sin embargo, en cada reporte el escenario fue el mismo, el uso por parte de los alumnos es cercano a cero. En tanto, observando la proporción de alumnos que usan el software, se apreció

169 Evaluación Programa Software Educativo – Informe Final

que las plataformas que mayor participación obtienen son las de matemáticas. Así como también que los establecimientos que mayor uso dan a la plataforma son los particulares subvencionados. 

Se realizó un estudio de brechas de puntaje, tanto para lenguaje, matemáticas e historia, geografía y ciencias sociales, mediante la distribución acumulada de los estudiantes. Se verificó que la distribución acumulada del puntaje de alumnos participantes del programa domina estocásticamente en primer orden a la distribución acumulada de los alumnos no participantes del programa. Esto sucede para las tres pruebas en estudio.



Asimismo, la correlación registrada entre el sector de aprendizaje, tanto inglés como matemáticas, y las pruebas SIMCE fue cercana a cero.



Adicional a lo anterior, se visualizó en las cuatro plataformas que incluye el programa, que el grupo de tratados obtiene mejores resultados que el grupo de control, pero sólo en las plataformas English Discovered y Galileo esta diferencia es estadísticamente significativa al 95%. Sin embargo, no es posible brindar una característica de causalidad a este escenario, ya que no se cuenta con un diseño de evaluación de impacto desde el inicio de este programa, que haya permitido además contar con un contrafactual bien definido. Por lo tanto, no es posible estimar efecto alguno de este programa bajo las condiciones dadas.

Por último, considerando se recomienda: 1. Dado que en 2012, cuando se inició el programa, se reportan brechas en el logro de las pruebas SIMCE entre estudiantes participantes y no participantes del programa, lo cual es un indicio de que la población es efectivamente distinta, para aplicar una evaluación de impacto del programa es necesario asegurar un grupo de control igual al de tratamiento, excepto en que este último fue asignado al programa. 2. Considerando que el programa ya tiene tiempo de aplicación y el uso sigue cercano a cero, se recomienda dar mayor énfasis al proceso del programa, es decir hacer un mayor monitoreo y seguimiento de las plataformas, de tal manera de garantizar el uso y así poder más adelante estimar el efecto asociado al programa.

170 Evaluación Programa Software Educativo – Informe Final

X.

Anexos

171 Evaluación Programa Software Educativo – Informe Final

Anexo 1: Pauta Grupo Focal

Pauta de Grupos Focales

Objetivo General. Conocer la percepción y la valoración de docentes y jefes de UTP respecto del uso del programa “Software Educativo”, implementado en colegios municipales y particulares subvencionados del país, para estudiantes de 3º a 8º básico. Objetivos específicos. a) Caracterizar la visión que tienen los Jefes de UTP y docentes respecto a las estrategias implementadas por los establecimientos en la planificación y uso pedagógico de las plataformas y al grado de integración de dichas estrategias en las aulas en los sectores de matemáticas e inglés. b) Generar información específica respecto a la percepción que tienen los Jefes de UTP y los docentes de los establecimientos del programa, sobre la calidad de las plataformas, medida, entre otras dimensiones, en términos de la oportunidad de su entrega, su utilidad pedagógica, la facilidad de uso, etc. c) Analizar las razones que están a la base del tiempo semanal destinado por los alumnos al uso de las distintas plataformas. d) Identificar facilitadores, obstaculizadores y sugerencia por parte de Jefes de UTP y Docentes, para el funcionamiento del programa. Relevancia de la etapa cualitativa La relevancia de la etapa cualitativa consiste en entregar información complementaria que apoye la construcción de los cuestionaros a implementarse en la parte cuantitativa del estudio. A través de esta metodología se pretende conocer la apreciación subjetiva que los actores vinculados al programa software digital tienen sobre el uso, la oportunidad de entrega y la utilidad técnica y pedagógica de esta herramienta tecnológica, pudiendo obtener información de importancia para identificar la percepción y valoración que los usuarios (jefes de UTP y docentes) tienen de las plataformas y así detectar las fortalezas y aspectos a mejorar en estas aplicaciones. Siempre teniendo en cuenta el grado en que estas plataformas aportan al mejoramiento de los aprendizajes de los estudiantes. En base a los objetivos antes expuestos, se han creado una serie de preguntas directrices dirigidas a cubrir las temáticas contenidas en ellos, las cuales se detallan en la pauta para grupos focales que se presenta a continuación. 172 Evaluación Programa Software Educativo – Informe Final

Pauta de Grupos Focales, Proyecto Enlaces  

 



Grupo Objetivo: Docentes y Jefes de UTP pertenecientes a establecimientos educacionales donde se implementó un software digital en la asignatura de inglés o matemática. Presentación del equipo de trabajo: Buenos Días/Buenas Tardes, mi nombre es…………………………….. Ella es…………………………………, somos investigadoras del Centro de Microdatos de la Universidad de Chile, que es un centro especializado en la implementación de investigaciones de gran envergadura y en este caso nuestro objetivo es conocer su percepción acerca de los software educativos digitales implementados en su establecimiento. Saludo de Bienvenida: Para ello le damos la más cordial bienvenida y le agradecemos por su presencia y disposición a colaborar en este proyecto. Aclaraciones y condiciones de participación: Cabe destacar que a continuación le plantearemos algunas preguntas frente a las cuales no existen respuestas buenas o malas pues lo que importa conocer es precisamente su percepción. Una vez finalizado el grupo focal cada uno de Uds. recibirá un vale de movilización por asistir a esta jornada. Comencemos………… Objetivos Específicos a) Introducir a los participantes en el grupo focal (Instalación).

Pregunta Directriz ¿Cómo fue el primer acercamiento del colegio con el Programa “Software Educativo”?

b) Caracterizar la visión que tienen los Jefes de UTP y docentes respecto a las estrategias implementadas por los establecimientos en la planificación y uso pedagógico de las

¿Cuál es la visión de jefes UTP/docentes sobre el conocimiento, el compromiso, el involucramiento e interés institucional que ellos perciben en los directores, sostenedores

Pregunta Focus ¿Cómo se enteró el colegio del programa software educativo? ¿En qué mes se enteró? ¿Quién se enteró? ¿Cuál fue su reacción frente a la adjudicación del programa software educativo en su colegio? ¿Cuál diría usted que fue el grado de conocimiento del colegio sobre el programa? ¿Cuál fue el compromiso? ¿Cuál fue el involucramiento?

173 Evaluación Programa Software Educativo – Informe Final

plataformas y al grado de integración de dichas estrategias en las aulas en los sectores de matemáticas e inglés.

y jefes UTP programa?

con

el

¿Cuál fue el interés?

¿Las plataformas son consideradas en las planificaciones regulares de los establecimientos para enseñar matemáticas e inglés en esos niveles?

¿Existió incorporación del software educativo a las planificaciones regulares del colegio?

¿Los contenidos de las plataformas son pertinentes o apropiados con respecto a los planes y programas de inglés y matemáticas de esos niveles?

¿Cuál es la pertinencia de los contenidos de las plataformas para los planes y programas de la asignatura?

¿Cuál es la visión sobre cómo se da el uso pedagógico de las plataformas en las aulas (cómo es la “bajada” o “integración” práctica de las plataformas en los establecimientos): -Se usan en el colegio, en las casas, en ambos lugares u otros que puedan indicar. -Por qué se decidió por esa modalidad de uso. -Si el uso es controlado o guiado por alguna persona del establecimiento (profesor u otro)?

¿Cuál fue el uso pedagógico que se le dio a las plataformas en el aula? ¿Qué utilidad le ve a este uso? ¿Cuál fue el lugar más frecuente de uso de la plataforma para los estudiantes? (colegio, casa, ambos lugares u otros) ¿Cuál es la razón de ocupar la plataforma en este lugar? (el que mencionen con más frecuencia) ¿Quién guio el uso de la plataforma en el colegio? (profesor u otro)

¿Los participantes consideran que las plataformas ayudan o no a obtener o mejorar los

¿Cree que existe alguna relación entre la plataforma y el mejoramiento de los

174 Evaluación Programa Software Educativo – Informe Final

logros académicos de los niños de esos niveles en inglés y matemáticas?

c) Generar información específica respecto a la percepción que tienen los Jefes de UTP y los docentes de los establecimientos del programa, sobre la calidad de las plataformas, medida, entre otras dimensiones, en términos de la oportunidad de su entrega, su utilidad pedagógica, la facilidad de uso, etc.

d) Analizar las razones que están a la base del tiempo semanal destinado por los alumnos al uso de las distintas plataformas.

¿Cómo caracterizaría la oportunidad de entrega e inicios de operación de la plataforma en los colegios?

resultados de logro académico de los estudiantes? ¿La plataforma promovió el aprendizaje autónomo de los estudiantes? ¿Cómo evaluaría la oportunidad de entrega y el inicio de operación de la plataforma en el colegio?

¿Los participantes consideran que las plataformas son fáciles de usar para docentes y alumnos.

¿Las plataformas fueron efectivamente usadas?

¿Existió servicios post venta de las empresas que administran las plataformas (capacitaciones, consultas, resolución de reclamos y problemas técnicos, etc.)?.

¿Existieron servicios post venta de parte de las empresas que administran las plataformas? (capacitaciones, consultas, resolución de reclamos y problemas técnicos)

¿Existió un apoyo o algún tipo de relación, post instalación, con el Ministerio?.

¿Existió o existe algún tipo de apoyo o relación con el Ministerio después de la instalación? ¿Nos podría señalar el tiempo de uso que tuvo la plataforma por los niños en su establecimiento?

¿Desde el punto de vista de los participantes, cuál fue la magnitud de tiempo que los niños en sus establecimientos usa las plataformas?.

¿Cómo evaluaría usted la facilidad de uso de la plataforma?

¿Cuál fue la frecuencia semanal de uso de la plataforma en su colegio?

175 Evaluación Programa Software Educativo – Informe Final

¿Por qué en algunos casos se usan poco y en otros mucho?

¿Qué elementos facilitaron el funcionamiento del programa en el colegio?.

¿Por qué cree usted que algunos colegios utilizaron más y otros menos las plataformas? ¿El uso de la plataforma permitió ahorrar tiempo de planificación, ejercitación, etc. o por el contrario fue más demandante de tiempo? ¿Qué elementos facilitaron el funcionamiento del programa?

¿Qué elementos obstaculizaron el funcionamiento del programa en el colegio?.

¿Qué elementos obstaculizaron el funcionamiento del programa?

¿Qué recomendaciones haría para mejorar el programa software educativo?.

¿Qué recomendaciones haría para mejorar el programa software educativo?

¿La plataforma permitió ahorrar tiempo de planificación y ejecución de la clase a los docentes?

e) Identificar facilitadores, obstaculizadores y sugerencia por parte de Jefes de UTP y Docentes, para el funcionamiento del programa:

176 Evaluación Programa Software Educativo – Informe Final

Anexo 2: Transcripciones de Grupos Focales (Word)

177 Evaluación Programa Software Educativo – Informe Final

Anexo 3: Archivos de audio de Grupos Focales

178 Evaluación Programa Software Educativo – Informe Final

Anexo 4: Listado establecimientos pilotaje

1 2 3 4 5 6 7 8 9 10 11 12 13

RBD

Fecha de Visita

Nombre Jefe de UTP

Nombre Docente

9599

Lunes 11

Eliana Esteban

María Eliana Aguilera

8675

Lunes 11

Ana María Contador

Pilar García -Gabriel Vásquez

9171

Lunes 11

José Stein

Alicia Olivos

9084

Lunes 11

Miryam Lemus

María Cristina Borreye

8515

Lunes 11

Luis Pontigo

Francisco Calderón

9347

Jueves 7

Raimundo Ramos

Mariela Paredes

8530

Jueves 7

Soledad Cortes

Jaime Pizarro

8780

Martes 12

Rosa Varas

Giselle Miranda

25540

Martes 12

Marcela Caldera

Oscar Luna

9091

Martes 12

Ausente por imprevisto

Josué Troncoso

9146

Martes 12

Ausente por imprevisto

Mauricio González

9347

Viernes 8

Julia Velásquez

Inés Lluvia o Marcela Matteuc

viernes 15

Roxana Campos

Cristina Villanueva

179 Evaluación Programa Software Educativo – Informe Final

Anexo 5. Justificación y detalle de intentos de contacto a jefes de UTP por encuesta no realizada o incompleta. En la tabla siguiente, se presentan 62 casos en que no se obtuvo una encuesta completa por parte del jefe de UTP. Entre estos se consideran, además, los 2 casos en que no se pudo tener contacto con el establecimiento momento alguno del proceso.

Id Código Descripción General Encuesta 19 Sin contacto telefónico con jefe 1

de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

35

2

Jefe de UTP no disponible por licencia médica.

37

7

Se realiza contacto con jefe de UTP, pero no se indica que se vaya a responder la encuesta.

47

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Descripción particular

Estado encuesta

Desde el día 10/12 se hicieron varios intentos de llamada en que no contestaron y un intento más donde indicaron que el colegio fue sede de votación.

No comenzada

3

El 11/12 se informa que la jefe No de utp está con prenatal y comenzada también con licencia médica. Se logra contacto con jefa de Incompleta UTP, se vuelve a enviar usuario y clave sin compromiso a contestar.

1

Desde el 10/12 se llamó en distintos días y horarios al colegio y nunca se pudo realizar contacto.

4

No comenzada

Cantidad Horario llamados llamados

10-12-2013 9:18:36 / 16-12-2013 11:48:54 / 17-122013 16:48:42 11-12-2013 15:56

3

11-12-2013 10:52:30 / 13-12-2013 11:08:23 / 16-122013 12:09:41 10-12-2013 15:52:16 / 11-12-2013 10:01:34 / 13-122013 15:20:16 / 1712-2013 17:07:55

180 Evaluación Programa Software Educativo – Informe Final

58

4

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente.

Se logra contacto, se le vuelve a enviar usuario y clave y se compromete a responder. No contaba con tiempo para realizar en ese momento la encuesta de manera telefónica.

No comenzada

3

10-12-2013 12:27:55 / 11-12-2013 15:31:49 / 11-122013 15:38:51

64

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Desde el 10/12 se llamó en distintos días y horarios al colegio y nunca se pudo realizar contacto.

No comenzada

6

73

4

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente.

Se logra contacto y se comprometen a responder. No contaba con tiempo para realizar en ese momento la encuesta de manera telefónica.

No comenzada

9

10-12-2013 12:48:01 / 16-12-2013 11:54:59 10-12-2013 11:05:03 / 13-12-2013 15:38:53 / 13-122013 15:43:12 / 1612-2013 11:30:26 / 16-12-2013 11:41:42 / 16-12-2013 11:44:04 / 16-122013 12:50:50

181 Evaluación Programa Software Educativo – Informe Final

80

84

94

1

1

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llamó en distintos días y No horarios al colegio y siempre se comenzada indicó que se debía llamar en otro momento porque el encargado estaba ocupado.

6

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llamó en distintos días y No horarios al colegio y no comenzada contestaron, luego en el octavo llamado informaron que la jefe de utp no estaba en el establecimiento. No se pudo volver a tener contacto telefónico con jefe de UTP.

8

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llamó en distintos días y No horarios al colegio y siempre se comenzada indicó que se debía llamar en otro momento porque el encargado estaba ocupado.

4

10-12-2013 13:24:47 / 12-12-2013 09:37:09 / 12-122013 15:48:19 / 1912-2013 Jornada mañana / 19-12-2013 Jornada tarde / 2312-2013 Jornada mañana 10-12-2013 9:49:35 / 13-12-2013 09:41:05 / 13-12-2013 15:22:21 / 16-122013 10:45:31 / 1612-2013 11:40:55 / 18-12-2013 10:11:47 10-12-2013 16:25:13 / 12-12-2013 15:40:47 / 13-122013 15:50:30 / 1612-2013 12:26:36

182 Evaluación Programa Software Educativo – Informe Final

99

103

106

1

4

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se hicieron varios intentos de llamada en que no contestaron y un intento donde indicaron que el colegio fue sede de votación.

Incompleta

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente.

Se logra contacto, se le vuelve a enviar usuario y clave y se compromete a responder. No contaba con tiempo para realizar en ese momento la encuesta de manera telefónica.

No comenzada

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se hicieron varios intentos de llamada en que no contestaron y un intento donde indicaron que la jefe de utp se encontraba en un acto.

No comenzada

7

10-12-2013 15:26:36 / 13-12-2013 16:00:15 / 16-122013 12:24:43 / 1612-2013 12:54:51 / 19-12-2013 12:34:28 / 20-12-2013 10:20:11 / 20-122013 16:12:22 2

10-12-2013 14:47:39 / 16-12-2013 13:11:07 3

10-12-2013 14:44:56 / 13-12-2013 15:59:10 / 16-122013 13:25:46

183 Evaluación Programa Software Educativo – Informe Final

130

3

Rechazo: el jefe de UTP se niega a participar o contestar la encuesta web.

Se logra contacto con la jefe de No utp, a quien le llegó el usuario comenzada y clave pero cuando se habla con ella, insiste en que como ni siquiera conocen el software no puede responder la encuesta. Se le explica que la encuesta cuenta con preguntas para el no uso y ella plantea que no se compromete a responderla pero que si tiene tiempo, entre las muchas obligaciones que tiene lo hará.

1

137

2

Jefe de UTP no disponible por licencia médica.

El 11/12 se informa que la jefe de utp está con prenatal y que no hay nadie que haya quedado cumpliendo esta función en el colegio.

No comenzada

4

159

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llamó en distintos días y horarios al colegio y nunca se pudo realizar contacto.

No comenzada

5

12-12-2013 11:48 11-12-2013 9:55:19 / 13-12-2013 12:30:19 / 17-12-2013 11:41:53 / 17-122013 15:32:50 11-12-2013 10:38:43 / 13-12-2013 15:12:02 / 18-122013 Jornada mañana / 18-12-2013 Jornada tarde / 1912-2013 Jornada mañana 184 Evaluación Programa Software Educativo – Informe Final

164

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llamó en distintos días y horarios al colegio y solo se hizo contacto en una ocación en que no se encontraban disponibles para atender.

No comenzada

Rechaza responder la encuesta al hacer el contacto telefónico para motivar la respuesta de la encuesta.

No comenzada

3

No comenzada

5

169

3

Rechazo: el jefe de UTP se niega a participar o contestar la encuesta web.

178

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

5

10-12-2013 15:14:32 / 19-12-2013 12:03:22 / 19-122013 Jornada tarde / 20-12-2013 Jornada mañana / 20-12-2013 Jornada tarde 10-12-2013 15:38:29 / 12-12-2013 15:49:36 10-12-2013 15:59:16 / 12-12-2013 15:52:57 / 19-122013 Jornada tarde / 20-12-2013 Jornada mañana / 20-12-2013 Jornada tarde

185 Evaluación Programa Software Educativo – Informe Final

180

198

211

215

4

3

1

4

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente.

Se logra contacto, se le vuelve a enviar usuario y clave y se compromete a responder. No contaba con tiempo para realizar en ese momento la encuesta de manera telefónica.

No comenzada

2

Rechazo: el jefe de UTP se niega a participar o contestar la encuesta web.

Rechaza responder la encuesta al hacer el contacto telefónico para motivar la respuesta de la encuesta.

Incompleta

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se realizan 5 intentos de No llamados: en 3 ocasiones no comenzada contestan, luego se actualiza el número de teléfono, se logra contactar al colegio pero nos dicen que la jefa de utp regresa el lunes 16, llamamos en lunes 16 y no al encontramos.

4

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente.

Se logra contacto, se le vuelve a enviar usuario y clave y se compromete a responder. No contaba con tiempo para realizar en ese momento la encuesta de manera telefónica.

1

10-12-2013 16:08:49 / 12-12-2013 15:54:59 2

12-12-2013 9:47:11 / 12-12-2013 13:06:36

No comenzada

12-12-2013 9:42:15 / 12-12-2013 15:06:34 / 13-12-2013 15:16:49 / 16-122013 13:06:09

10-12-2013 9:01

186 Evaluación Programa Software Educativo – Informe Final

221

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en varias oportunidades al colegio, en algunas no contestan el teléfono y en las otras no se encuentra disponible el jefe de utp.

No comenzada

7

225

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se realizan varios intentos de llamado pero siempre se encuentra ocupado el jefe de utp. En una ocasión se estaba fumigando el colegio, en otra, la a jefe de utp se encuentra muy ocupada por las graduaciones de fin de año.

No comenzada

5

10-12-2013 8:48:34 / 10-12-2013 10:08:24 / 13-12-2013 15:26:06 / 16-122013 11:41:59 / 1612-2013 12:19:10 13-12-2013 15:45:33 / 16-12-2013 11:53:24 / 18-122013 Jornada mañana / 19-12-2013 Jornada tarde / 2012-2013 Jornada mañana

232

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en varias oportunidades al colegio, en algunas no contestan el teléfono y en las otras no se encuentra disponible el jefe de utp.

No comenzada

4

247

3

Rechazo: el jefe de UTP se niega a participar o contestar la encuesta web.

Rechaza responder la encuesta al hacer el contacto telefónico para motivar la respuesta de la encuesta.

No comenzada

2

10-12-2013 11:59:31 / 13-12-2013 15:56:30 / 16-122013 12:50:57 / 1812-2013 15:31:12 10-12-2013 15:33:47 / 12-12-2013 10:50:27 187

Evaluación Programa Software Educativo – Informe Final

252

4

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente.

255

5

Sacados de la muestra: casos en que en campaña 1 no se pudo realizar contacto.

256

4

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente.

257

5

Sacados de la muestra: casos en que en campaña 1 no se pudo realizar contacto.

260

6

Jubilado: el jefe de UTP jubiló este año por lo tanto el colegio no cuenta con este cargo y no hay nadie en su reemplazo.

Se logra contacto, se le vuelve a enviar usuario y clave y se compromete a responder. No contaba con tiempo para realizar en ese momento la encuesta de manera telefónica.

No se pudo tomar contacto con el colegio. Se intentó en diversos días y horarios (desde el 05-11 al 20-12) pero no se logró. Se logra contacto, se le vuelve a enviar usuario y clave y se compromete a responder. No contaba con tiempo para realizar en ese momento la encuesta de manera telefónica, ya que se encontraba en consejo.

No comenzada

3

12-12-2013 14:55 Incompleta

No comenzada

No se puede contactar al colegio ni siquiera en campaña 1

5

12-12-2013 15:00:15 / 12-12-2013 15:28:52 / 16-122013 13:24:12 No

No se puede contactar al colegio ni siquiera en campaña 1

No se pudo tomar contacto con comenzada el colegio. Se intentó en diversos días y horarios (desde el 06-11 al 04-12) pero no se logró. Se realizaron 2 intentos de llamados, en la última ocasión indican que no hay jefe de utp en el establecimiento porque jubiló este año. No se puede tomar contacto con el Director.

No comenzada

3

12-12-2013 15:03:55 / 16-12-2013 13:25:51

188 Evaluación Programa Software Educativo – Informe Final

262

4

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente.

Se llama en varias oportunidades al colegio, en algunas no contestan el teléfono y en las otras no se encuentra disponible el jefe de utp. Se logra contacto el 17-12 y se envía nuevamente clave. Se indica que se puede llamar el 18-12 para realizar la encuesta, pero al llamar no se logra contacto.

No comenzada

2

17-12-2013 jornada mañana / 18-12-2013 10:04:14 / 20-122013 10:06:38

267

3

Rechazo: el jefe de UTP se niega a participar o contestar la encuesta web.

Al contactar a la jefe de utp, indicó que se le enviara nuevamente el usuario y la clave pero señaló que odia las encuestas por lo tanto no se compromete a responderla.

No comenzada

1

270

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en varias oportunidades al colegio que fue sede de votación, en algunas no contestan el teléfono y en las otras no se encuentra disponible el jefe de utp.

No comenzada

3

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente.

Se logra contacto, se le vuelve a enviar usuario y clave y se compromete a responder. Pide que lo vuelvan a llamar para realizar la encuesta por teléfono, pero no contesta.

No comenzada

5

281

4

17-12-2013 14:47 12-12-2013 16:14:26 / 13-12-2013 10:12:23 / 17-122013 14:51:12 17-12-2013 10:59:03 / 18-12-2013 10:50:32 / 19-122013 12:58:10 / 2012-2013 09:59:39 / 20-12-2013 12:43:59 189

Evaluación Programa Software Educativo – Informe Final

296

4

297

1

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente. Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se logra contacto y se compromete a responder. Se acuerda volver a llamarlo para realizar la encuesta por teléfono, pero no contesta. Se llama en varias oportunidades al colegio, en algunas no contestan el teléfono y en las otras no se encuentra disponible el jefe de utp.

No comenzada

4

No comenzada

7

10-12-2013 11:16:04 / 16-12-2013 14:53:03 10-12-2013 11:33:11 / 10-12-2013 14:47:18 / 13-122013 15:33:34 / 1612-2013 13:19:35 / 20-12-2013 10:51:45

298

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en varias oportunidades al colegio, en algunas no contestan el teléfono y en las otras no se encuentra disponible el jefe de utp.

No comenzada

3

303

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en varias oportunidades al colegio, no contestan el teléfono.

No comenzada

4

10-12-2013 11:35:03 / 11-12-2013 09:14:45 / 12-122013 09:25:48 10-12-2013 15:31:32 / 18-12-2013 Jornada mañana / 18-12-2013 Jornada tarde / 1912-2013 jornada mañana

190 Evaluación Programa Software Educativo – Informe Final

304

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en varias oportunidades al colegio, en algunas no contestan el teléfono y en las otras no se encuentra disponible el jefe de utp.

No comenzada

3

320

6

Jubilado: el jefe de UTP jubiló este año por lo tanto el colegio no cuenta con este cargo y no hay nadie en su reemplazo.

Se realizan 11 intentos de llamados, en el último de estos se indica que el jefe de utp jubiló el 30 de septiembre, el colegio no cuenta actualmente con jefe de utp.

No comenzada

10

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en varias oportunidades al colegio, en algunas no contestan el teléfono y en las otras no se encuentra disponible el jefe de utp.

No comenzada

Jefe de UTP no disponible por licencia médica.

Al llamar, se informa que la jefa de utp está con licencia médica.

No comenzada

328

329

1

2

10-12-2013 15:41:38 / 11-12-2013 09:30:20 / 12-122013 09:30:18 11-12-2013 9:10:39 / 11-12-2013 09:30:42 / 11-12-2013 09:31:29 / 11-122013 09:32:34 / 1612-2013 12:27:48 / 16-12-2013 13:10:47

4

11-12-2013 10:15:06 / 19-12-2013 Jornada mañana / 20-12jornada mañana / 2012-2013 jornada tarde 1

11-12-2013 10:25

191 Evaluación Programa Software Educativo – Informe Final

330

4

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente.

Se logra contacto, se le vuelve a enviar usuario y clave y se compromete a responder. No contaba con tiempo para realizar en ese momento la encuesta de manera telefónica.

No comenzada

2

352

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en varias oportunidades al colegio, no contestan el teléfono.

No comenzada

6

354

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en varias No oportunidades al colegio, nunca comenzada se encuentra disponible el jefe de utp.

5

11-12-2013 10:19 17-12-2013 11:06:41 / 17-12-2013 12:08:38 / 18-122013 11:04:49 / 1912-2013 12:55:57 / 19-12-2013 17:55:32 / 20-12-2013 10:02:45 16-12-2013 13:27:39 / 17-12-2013 11:19:38 / 18-122013 11:07:49 / 1912-2013 12:52:59 / 20-12-2013 10:04:16

192 Evaluación Programa Software Educativo – Informe Final

355

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en ocho oportunidades al colegio, no contestan el teléfono.

No comenzada

8

16-12-2013 13:14:32 / 17-12-2013 12:12:00 / 17-122013 12:16:22 / 1712-2013 12:42:10 / 18-12-2013 11:11:05 / 19-12-2013 12:51:28 / 19-122013 17:57:24 / 2012-2013 10:17:25

362

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en varias No oportunidades al colegio, nunca comenzada se encuentra disponible el jefe de utp.

4

376

4

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente.

Se logra contacto con el colegio, se pide que se vuelve a enviar usuario y clave.

2

No comenzada

11-12-2013 10:08:22 / 12-12-2013 09:34:20 / 12-122013 11:02:14 / 1312-2013 15:24:49 10-12-2013 9:11:43 / 20-12-2013 11:56:10

193 Evaluación Programa Software Educativo – Informe Final

377

386

387

1

1

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se realizan 9 intentos de Incompleta llamados, en el último llamado, la Jefa de UTP se encuentra disponible pero no atiende por varios minutos hasta que corta.

7

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en varias oportunidades al colegio, no contestan el teléfono.

Incompleta

5

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en varias oportunidades al colegio que fue sede de votación, en algunas no contestan el teléfono y en las otras no se encuentra disponible el jefe de utp.

No comenzada

10-12-2013 10:27:27 / 11-12-2013 17:20:23 / 13-122013 09:15:42 / 1612-2013 10:21:11 / 16-12-2013 11:50:23 / 19-12-2013 12:45:04 / 20-122013 10:28:49 10-12-2013 10:58:19 / 13-12-2013 15:48:35 / 19-122013 12:48:40 / 2012-2013 10:40:41 / 23-12-2013 16:28:18 3

10-12-2013 9:25:57 / 16-12-2013 12:57:45 / 18-12-2013 15:57:44

194 Evaluación Programa Software Educativo – Informe Final

391

7

Se realiza contacto con jefe de UTP, pero no se indica que se vaya a responder la encuesta.

Se realizan varias llamadas, No cuando finalmente se realiza comenzada contacto, la jefa de utp indica que respondió la encuesta, sin embargo esto no se observa en la plataforma.

3

10-12-2013 10:01:30 / 13-12-2013 16:00:44 / 16-122013 13:01:45

402

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en quince oportunidades al colegio, no contestan el teléfono.

No comenzada

15

406

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en varias oportunidades al colegio, en algunas no contestan el teléfono y en las otras no se encuentra disponible el jefe de utp.

No comenzada

9

409

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

Se llama en 16 oportunidades al colegio, no contestan el teléfono.

No comenzada

16

12-12-2013 11:12:19 / 12-12-2013 15:14:40 / 13-122013 16:09:54 / 2012-2013 11:58:35 12-12-2013 11:17:58 / 12-12-2013 11:28:11 / 16-122013 12:26:23 / 2012-2013 12:01:57 10-12-2013 16:13:19 / 12-12-2013 11:57:03 / 12-122013 15:20:02 / 2012-2013 13:06:06

195 Evaluación Programa Software Educativo – Informe Final

417

2

Jefe de UTP no disponible por licencia médica.

421

3

Rechazo: el jefe de UTP se niega a participar o contestar la encuesta web.

423

1

Sin contacto telefónico con jefe de UTP: no se pudo contactar al colegio o no se pudo hablar con jefe de utp.

433

443

4

4

Al llamar, se informa que la jefa de utp está con licencia médica prolongada por operación. Se elimina este colegio de la muestra ya que al tomar contacto indican que están con muchos asuntos y no quieren participar del estudio. Se llama en varias oportunidades al colegio, en algunas no contestan el teléfono y en las otras no se encuentra disponible el jefe de utp.

No comenzada

1

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente.

Se logra contacto, se le vuelve a enviar usuario y clave y se compromete a responder. No contaba con tiempo para realizar en ese momento la encuesta de manera telefónica.

No comenzada

3

Se realiza contacto y se indica que se va a responder la encuesta, pero no se concreta dentro del periodo correspondiente.

Se logra contacto, se le vuelve a enviar usuario y clave y se compromete a responder. No contaba con tiempo para realizar en ese momento la encuesta de manera telefónica.

No comenzada

1

17-12-2013 16:45 No comenzada

No comenzada

5

11-12-2013 11:32:09 / 13-12-2013 11:04:49 / 16-122013 11:55:07 / 1712-2013 16:59:28 / 18-12-2013 11:23:36 10-12-2013 11:48:05 / 13-12-2013 15:32:10 / 20-122013 13:23:14

23-12-2013 9:53

196 Evaluación Programa Software Educativo – Informe Final

Anexo 6. Detalle encuesta web respondida por personal distinto al jefe de UTP. En la tabla siguiente, se presentan los casos en la encuesta web no fue respondida por el Jefe de UTP. ID encuesta

Cargo

Estado

Especifique

Descripción general

Descripción particular

Otro. 419 Especifique

Profesora jefe del 2º año y realizo la asignatura de Ciencias Naturales en 3º y 4º año Básico.

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

Responde la jefa de UTP quien a su vez es profesora de aula Datos en el establecimiento. utilizados

Otro. 268 Especifique

Docente encargado de matematica primer ciclo

No se ha logrado tener contacto telefónico.

Datos utilizados

Coordinadora Académica

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

Datos utilizados

Otro. 61 Especifique

149 Director

75 Subdirector

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

La jefe de UTP es también la Directora del establecimiento ya que quedó subrogando al antiguo Director y ahora está a cargo.

Datos utilizados

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

La subdirectora cumple la función de jefa de UTP, por esto responde la encuesta.

Datos utilizados

197 Evaluación Programa Software Educativo – Informe Final

Otro. 477 Especifique

Otro. 30 Especifique

Coordinación TIC

Responde un profesional que no corresponde al jefe de UTP, ya que este le derivó las claves para responder.

Encargada de UTP

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

La encuesta fue enviada al jefe de UTP, pero este la derivó al coordinador TIC por estar este directamente involucrado con el software.

Datos no utilizados

Datos utilizados

148 Director

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

El jefe de UTP tuvo un accidente en agosto y no regresa a trabajar hasta marzo del próximo año, motivo por el cual el Director respondió la encuesta.

101 Director

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

La encuesta llegó al correo del colegio y luego de eso se lo reenviaron a la jefe de UTP Datos Sandra Mondaca utilizados

447 Subdirector

No se ha logrado tener contacto telefónico.

Otro. 238 Especifique

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

profesora de curso cuarto basico

Datos utilizados

Datos utilizados

Responde la jefa de UTP quien a su vez es profesora de aula Datos en el establecimiento. utilizados

198 Evaluación Programa Software Educativo – Informe Final

Otro. 193 Especifique

Coordinador de UTP

Otro. 51 Especifique

Otro. 364 Especifique

Datos utilizados

Responde un profesional que no corresponde al jefe de UTP, ya que este le derivó las claves para responder.

Responde la Directora ya que ésta cumple las tareas de encargado técnico del área de inglés. El jefe de UTP le derivó Datos las claves. utilizados

Docente de aula

Responde un profesional que no corresponde al jefe de UTP, ya que este le derivó las claves para responder.

Se envió correctamente la encuesta a la jefa de utp pero ella la derivó a la profesora de inglés considerando que ella es la que tiene mayor conocimiento sobre la Datos no plataforma en el colegio. utilizados

coordinadora U.T.P 2ª ciclo

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

Profesora de Educación Matemática.

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

174 Director

Otro. 74 Especifique

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

Datos utilizados Jefe de UTP y profesora de educación matemática es la misma persona.

Datos utilizados

199 Evaluación Programa Software Educativo – Informe Final

La clave de ingreso fue enviada al jefe de UTP, pero este la derivó al profesor de inglés para que respondiera la encuesta.

Otro. 141 Especifique

Profesor de Inglés

Responde un profesional que no corresponde al jefe de UTP, ya que este le derivó las claves para responder.

Otro. 250 Especifique

Profesor

No se ha logrado tener contacto telefónico.

Coordinador de Enlaces

Responde un profesional que no corresponde al jefe de UTP, ya que este le derivó las claves para responder.

Jefe UTP y Docente

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

Coordinación Sep

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

El coordinador SEP y le jefe de UTP son la misma persona en este colegio.

Datos utilizados

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

Verónica Villamarchant es la jefe de utp de básica y ella dice haber respondido la encuesta, de hecho el orientador está con licencia hace dos meses.

Datos utilizados

Otro. 366 Especifique

Otro. 408 Especifique

Otro. 418 Especifique

400 Orientador(a)

Datos no utilizados Datos utilizados

El jefe de UTP derivó la encuesta al coordinador de enlaces de la escuela.

Datos no utilizados

Datos utilizados

200 Evaluación Programa Software Educativo – Informe Final

Coordinadora académica pero todo el año cumplió la función de jefe de utp

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

Datos utilizados

profesor y encargado de la unidad tecnica

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

Responde la jefa de UTP quien a su vez es profesora de aula Datos en el establecimiento. utilizados

Coordinador Tecnico

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

Datos utilizados

117 Director

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

Responde el director ya que el jefe de UTP se encontraba con Datos licencia. utilizados

314 Director

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

Responde la directora quien a su vez cumple el rol de jefa de UTP.

Otro. 71 Especifique

Otro. 397 Especifique

Otro. 323 Especifique

Datos utilizados

201 Evaluación Programa Software Educativo – Informe Final

Otro. 336 Especifique

coordinadora académica

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

Datos utilizados

438 Director

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

Otro. 341 Especifique

coordinador académico

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

Datos utilizados

Apoyo UTP. Depto. Curriculum

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

Datos utilizados

Profesora de Inglés

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

El establecimiento no tiene jefe utp, responde profesora a Datos cargo de la implementación. utilizados

Otro. 217 Especifique

Otro. 31 Especifique

Responde la directora quien a su vez cumple el rol de encargado técnico del establecimiento. No existe el cargo de jefe de UTP.

Datos utilizados

202 Evaluación Programa Software Educativo – Informe Final

350 Director

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

Responde la directora quien a su vez cumple el rol de jefa de UTP.

Datos utilizados

Otro. 414 Especifique

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

Responde profesor que reemplazó a la jefa de UTP mientras está se encontraba en pre y postnatal.

Datos utilizados

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

No existe el cargo de jefe de UTP, pero la directora cumple la función de apoyo de UTP.

Datos utilizados

Profesor aula

70 Director Otro. 313 Especifique

coordinador de Tic´s

No se ha logrado tener contacto telefónico.

Datos utilizados

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

Reponde jefe de UTP, marcó mal por error.

Datos utilizados

195 Subdirector

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

Responde la subdirectora, quien se encuentra reemplazando al jefe de UTP quien se encuentra con licencia.

Datos utilizados

Otro. 242 Especifique

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

112 Orientador(a)

coordinadora

Datos utilizados

203 Evaluación Programa Software Educativo – Informe Final

Otro. 108 Especifique

Otro. 229 Especifique

Otro. 24 Especifique

Otro. 469 Especifique

Profesora de aula 34 horas

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

Responde la jefa de UTP quien a su vez es profesora de aula Datos en el establecimiento. utilizados

Docente de aula

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

No existe la figura del jefe de UTP, por esto, responde la docente que monitorea y a la vez implementa el programa.

Datos utilizados

Encargada Red Enlaces

Responde un profesional que no corresponde al jefe de UTP, ya que este le derivó las claves para responder.

El jefe de UTP derivó la encuesta al encargado de enlaces de la escuela.

Datos no utilizados

Docente de aula

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

Responde profesora que reemplazó a la jefa de utp mientras está se encontraba en pre y postnatal.

Datos utilizados

204 Evaluación Programa Software Educativo – Informe Final

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

El correo llegó a la coordinadora académica del nivel, no existe el cargo de jefe de utp en el colegio. La coordinadora académica se encontraba con licencia, por lo que le derivaron la encuesta a la Directora, quien señala que conocer muy bien todo Datos respecto al software Gal&Leo. utilizados

Coordinador Pedagógico en Tics

Responde un profesional que no corresponde al jefe de UTP, ya que este le derivó las claves para responder.

Responde la encargada de Tics del establecimeinto porque la jefa de UTP estaba con licencia y le derivó las claves para que realizara la encuesta.

coordinados de ciclos

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

361 Director

Otro. 93 Especifique

Otro. 454 Especifique

7 Subdirector

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

Datos no utilizados

Datos utilizados

No existe el cargo de jefe de UTP, pero el director cumple la función de jefe de UTP.

Datos utilizados

205 Evaluación Programa Software Educativo – Informe Final

Otro. 403 Especifique

Profesora

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

Otro. 292 Especifique

Coordinador informática

No se ha logrado tener contacto telefónico.

Datos utilizados

COORDINADORA ACADEMICA

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

Datos utilizados

Docente Matemática y ETP.

El profesional es jefe de UTP a la vez que tiene otras responsabilidades en el establecimiento

Datos utilizados

Coordinadora de Informatica

Respondió la encuesta la coordinadora de enlaces a quien se envió las claves. Ella fue la encargada del software en el colegio y dice que sus respuestas no variarán tanto respecto de la jefe de utp La clave fue enviada a un miembro del porque ellas están bien establecimiento distinto al jefe de UTP. comunicadas.

Datos no utilizados

Otro. 322 Especifique

Otro. 360 Especifique

Otro. 20 Especifique

La jefa de UTP a la vez es docente. Ella respondió la encuesta.

Datos utilizados

206 Evaluación Programa Software Educativo – Informe Final

Otro. 57 Especifique

Otro. 109 Especifique

ADMINISTRATIVO

Responde un profesional que no corresponde al jefe de UTP, ya que este le derivó las claves para responder.

Apoyo UTP área Curriculum

Responde un profesional que no corresponde al jefe de UTP, pero que se encuentra reemplazándolo o cumpliendo las mismas funciones o similares.

La clave de ingreso fue enviada al jefe de UTP, pero este la derivó a personal administrativo que se encontraba a cargo del software.

Datos no utilizados

Datos utilizados

207 Evaluación Programa Software Educativo – Informe Final

Anexo 7. Justificación y detalle de intentos de contacto a docentes por encuesta no realizada. En la tabla siguiente, se presentan los casos en que no se pudo realizar la encuesta a los docentes.

Id Encuesta Código

4

16

Descripción general

Se concertó encuesta telefónica pero el profesor 2 nunca estuvo disponible.

Descripción particular

Se concreta una entrevista telefónica pero luego no fue posible tomar contacto con el profesor a pesar de varios intentos. Se realizaron constantes llamados en distintos días y horarios pero la profesora no se encontraba disponible o no estaba presente en el establecimiento.

Se realizaron varios llamados en distintos días y horarios, pero no se puedo agendar 5 No se pudo agendar una visita. una entrevista telefónica.

Cantidad llamados

Horarios llamados

27-11-2013 10:20:14 / 18-12-2013 jornada mañana / 18-12-2013 jornada tarde / 20-124 2013 jornada mañana

02-12-2013 09-12-2013 10-12-2013 10-12-2013 5 11-12-2013

15:32:36 / 13:27:22 / 11:42:24 / 11:43:10 / 10:21:34

208 Evaluación Programa Software Educativo – Informe Final

18

29

Se concertó encuesta telefónica pero el profesor 2 nunca estuvo disponible.

No se puede hacer contacto en 3 campaña 4.

Se concreta una entrevista telefónica pero luego no fue posible tomar contacto con el profesor a pesar de varios intentos. Se realizaron constantes llamados en distintos días y horarios pero la profesora no se encontraba disponible o no estaba presente en el establecimiento.

/ 27-11-2013 11:10:55 / 03-12-2013 11:13:12 / 20-12-2013 jornada mañana / 20-12-2013 4 jornada tarde

No se puede hacer contacto ya que no se contesta las llamadas. Se realizan constantes llamadas en distintos días y horarios sin ningún resultado (03-12, 0412, 05-12, 09-12, 10-12). Se confirma el número con la DAEM y con carabineros.

03-12-2013 10:25:02 / 03-12-2013 12:33:28 / 03-12-2013 17:00:41 / 04-12-2013 12:58:05 / 05-12-2013 09:50:47 / 06-12-2013 16:55:57 / 09-12-2013 18:00:43 8 /10-12-2013 10:26:40

209 Evaluación Programa Software Educativo – Informe Final

57

69

104

Se concertó encuesta telefónica pero el profesor 2 nunca estuvo disponible.

Se concreta una entrevista telefónica pero luego no fue posible tomar contacto con el profesor a pesar de varios intentos. Se realizaron constantes llamados en distintos días y horarios pero la profesora no se encontraba disponible o no estaba presente en el establecimiento.

25-11-2013 26-11-2013 26-11-2013 28-11-2013 28-11-2013 28-11-2013 7 28-11-2013

17:01:31 / 10:10:52 / 10:13:25 / 15:33:59 / 15:35:22 / 15:39:24 / 15:40:44

No se puede hacer contacto en 3 campaña 4.

No se puede hacer contacto ya que no se contesta las llamadas. Se realizan constantes llamadas en distintos días y horarios sin ningún resultado (29-11, 0612, 09-12, 10-12, 11-12).

29-11-2013 06-12-2013 09-12-2013 10-12-2013 10-12-2013 9 11-12-2013

15:36:45 / 10:59:52 / 11:55:47 / 15:24:13 / 15:48:37 / 15:41:46

Se concertó encuesta telefónica pero el profesor 2 nunca estuvo disponible.

Se concreta una entrevista telefónica pero luego no fue posible tomar contacto con el profesor a pesar de varios intentos. Se realizaron constantes llamados en distintos días y horarios pero la profesora no se encontraba disponible o no estaba presente en el establecimiento.

02-12-2013 9:18:17 / 6 02-12-2013 15:49:32

210 Evaluación Programa Software Educativo – Informe Final

105

No se puede hacer contacto ya que no se contesta las llamadas. Después de muchos intentos se logra saber que la profesora trabaja solo jueves y viernes, pero no se puede volver a hacer contacto. Se realizan constantes llamadas en distintos días y horarios sin ningún resultado (02-12, 065 No se pudo agendar una visita. 12, 09-12, 10-12, 12-12).

108

La profesora encargada se llevó las claves No se concretó visita por del software a otra escuela en la que 8 problemas del establecimiento. impartía clases por falta de internet.

131

4 Profesor con licencia.

Profesora con post-natal. No se utilizó el programa por no tener internet.

02-12-2013 02-12-2013 06-12-2013 06-12-2013 09-12-2013 10-12-2013 12 12-12-2013

11:08:35 / 11:54:42 / 09:29:47 / 16:02:43 / 15:02:31 / 09:56:06 / 15:54:09

03-12-2013 06-12-2013 06-12-2013 4 09-12-2013

11:29:28 / 13:12:56 / 15:36:06 / 12:22:38

211 Evaluación Programa Software Educativo – Informe Final

138

139

152

4 Profesor con licencia.

Profesora con licencia médica indefinida. La profesora reemplazante no conoce del tema.

05-12-2013 05-12-2013 05-12-2013 4 05-12-2013

13:24:20 / 14:53:11 / 15:17:57 / 16:40:37

Se concertó encuesta telefónica pero el profesor 2 nunca estuvo disponible.

Se concreta una entrevista telefónica pero luego no fue posible tomar contacto con el profesor a pesar de varios intentos. Se realizaron constantes llamados en distintos días y horarios pero la profesora no se encontraba disponible o no estaba presente en el establecimiento.

02-12-2013 12:22:15 / 09-12-2013 13:05:14 / 18-12-2013 jornada tarde / 20-12-2013 jornada 4 mañana

Se concertó encuesta telefónica pero el profesor 2 nunca estuvo disponible.

Se concreta una entrevista telefónica pero luego no fue posible tomar contacto con el profesor a pesar de varios intentos. Se realizaron constantes llamados en distintos días y horarios pero la profesora no se encontraba disponible o no estaba presente en el establecimiento.

02-12-2013 15:39:14 / 09-12-2013 jornada tarde 3 / 19-12-2013 11:00:10 /

212 Evaluación Programa Software Educativo – Informe Final

160

201

213

Se concertó encuesta telefónica pero el profesor 2 nunca estuvo disponible.

Se concreta una entrevista telefónica pero luego no fue posible tomar contacto con el profesor a pesar de varios intentos. Se realizaron constantes llamados en distintos días y horarios pero la profesora no se encontraba disponible o no estaba presente en el establecimiento.

29-11-2013 03-12-2013 04-12-2013 05-12-2013 05-12-2013 05-12-2013 06-12-2013 06-12-2013 9 09-12-2013

15:29:33 / 11:54:40 / 13:28:16 / 09:49:37 / 11:19:42 / 16:23:38 / 10:23:38 / 12:03:35 / 16:58:40

4 Profesor con licencia.

Profesora con licencia. No hay otra profesora de inglés y quien la reemplaza no conoce el programa.

02-12-2013 11:05:10 / 11-12-2013 15:34:52 / 3 11-12-2013 15:54:18

4 Profesor con licencia.

Profesor con licencia. No cuenta con reemplazo.

02-12-2013 11:02:17 / 06-12-2013 11:02:40 / 3 20-12-2013 18:52:24

213 Evaluación Programa Software Educativo – Informe Final

227

231

233

Se agendó una visita, la que no se concretó. No se pudo volver a agendar ya que no contestaron el teléfono. Se llamó en distintos días y horarios (8 llamados el día 5 No se pudo agendar una visita. 06-12, 5 llamados el 10-12).

Desde el colegio, se indica que el director, el jefe de utp y el docente están con licencia. No hay nadie disponible para atender.

4 Profesor con licencia.

No se puede hacer contacto en 3 campaña 4.

No se puede hacer contacto ya que no se contesta las llamadas. Se realizan constantes llamadas en distintos días y horarios sin ningún resultado (03-12, 0412, 05-12, 06-12, 10-12).

28-11-2013 06-12-2013 06-12-2013 11 10-12-2013

13:36:57 / 10:41:58 / 14:42:23 / 13:26:05

28-11-2013 16:20:03 / 03-12-2013 11:02:15 / 5 06-12-2013 10:30:51

03-12-2013 04-12-2013 05-12-2013 05-12-2013 05-12-2013 06-12-2013 06-12-2013 10-12-2013 32 10-12-2013

15:15:29 / 15:38:25 / 10:53:58 / 15:16:45 / 15:41:25 / 10:58:09 / 16:28:57 / 10:42:11 / 13:15:34

214 Evaluación Programa Software Educativo – Informe Final

255

257

263

270

No se pudo tomar contacto con el colegio. Se intentó en diversos días y horarios (desde el 05-11 al 20-12) pero no se logró.

No se realizó la campaña 4 porque no fue posible comunicarse en ninguna ocasión con este colegio en las campañas 0 anteriores.

No se pudo concretar la campaña 1, nunca se pudo tomar contacto. Se saca de la 6 muestra.

No se pudo tomar contacto con el colegio. Se intentó en diversos días y horarios (desde el 06-11 al 04-12) pero no se logró.

No se realizó la campaña 4 porque no fue posible comunicarse en ninguna ocasión con este colegio en las campañas 0 anteriores.

4 Profesor con licencia.

Se fijo una fecha para entrevista, pero la profesora se encontraba con licencia y no se pudo volver a agendar una entrevista.

1

Se concertó encuesta telefónica pero el profesor 2 nunca estuvo disponible.

Se concreta una entrevista telefónica pero luego no fue posible tomar contacto con el profesor a pesar de varios intentos. Se realizaron constantes llamados en distintos días y horarios pero la profesora no se encontraba disponible o no estaba presente en el establecimiento.

28-11-2013 09-12-2013 09-12-2013 11-12-2013 11-12-2013 6 13-12-2013

No se pudo concretar la campaña 1, nunca se pudo tomar contacto. Se saca de la 6 muestra.

02-12-2013 11:33

12:58:57 / 13:33:02 / 15:44:21 / 10:46:12 / 14:05:25 / 10:35:14

215 Evaluación Programa Software Educativo – Informe Final

Se concreta una entrevista telefónica pero luego no fue posible tomar contacto con el profesor a pesar de varios intentos. Se realizaron constantes llamados en distintos días y horarios pero la profesora no se encontraba disponible o no estaba presente en el establecimiento.

339

Se concertó encuesta telefónica pero el profesor 2 nunca estuvo disponible.

342

Se agendó una visita, la que no se concretó. No se pudo volver a agendar ya que la profesorá indicó que no contaba con tiempo dadas sus actividades de fin de 5 No se pudo agendar una visita. año.

395

Se concertó encuesta telefónica pero el profesor 2 nunca estuvo disponible.

Se concreta una entrevista telefónica pero luego no fue posible tomar contacto con el profesor a pesar de varios intentos. Se realizaron constantes llamados en distintos días y horarios pero la profesora no se encontraba disponible o no estaba presente en el establecimiento.

07-11-2013 11-11-2013 11-11-2013 20-11-2013 04-12-2013 6 17-12-2013

1

10:58:51 / 16:38:39 / 16:40:15 / 10:01:15 / 16:15:46 / 12:42:49

05-12-2013 10:44

10-12-2013 8:50:52 / 10-12-2013 17:08:07 / 18-12-2013 jornada mañana / 23-12-2013 jornada mañana / 23-125 2013 jornada tarde

216 Evaluación Programa Software Educativo – Informe Final

418

421

422

Colegio sólo entrega información del celular de la profesora. Se realizan reiteradas llamadas a la profesora (02-12, 03-12, 06-12, 09-12, 11-12) pero no contesta . Se intenta con el celular de la 5 No se pudo agendar una visita. jefa de utp pero tampoco contesta.

02-12-2013 03-12-2013 03-12-2013 03-12-2013 06-12-2013 09-12-2013 09-12-2013 11-12-2013 11-12-2013 10 11-12-2013

1 Rechaza participar.

No se vuelve a tomar contacto ya que indican que están con muchos asuntos y no quieren participar del estudio.

1

No se puede hacer contacto en 3 campaña 4.

No contestan las llamadas realizadas. Se realizaron constantes llamados sin éxito. En las otras campañas, se dieron situaciones similares.

27-11-2013 29-11-2013 11-12-2013 4 17-12-2013

16:05:50 / 10:50:53 / 12:25:18 / 16:20:43 / 09:51:18 / 10:37:07 / 15:10:37 / 10:56:51 / 13:56:52 / 15:59:12

06-12-2013 10:50

16:21:48 / 15:29:06 / 11:16:40 / 16:56:07

217 Evaluación Programa Software Educativo – Informe Final

No se puede hacer contacto ya que no se contesta las llamadas. Se realizan constantes llamadas en distintos días sin ningún resultado (29-11, 03-12, 06-12, 09-12, 10-12, 11-12).

425

No se puede hacer contacto en 3 campaña 4.

431

No se pudo agendar una visita. El profesor se encontraba enfermo (10-12) y luego no 5 No se pudo agendar una visita. fue posible agendar una visita.

443

1 Rechaza participar.

Jefa de utp señala que no se podrá contestar la encuesta pues el docente de la asignatura jubiló en octubre y desde esa fecha cuentan con un profesor nuevo. Pide que no vuelvan a llamar.

29-11-2013 03-12-2013 06-12-2013 09-12-2013 09-12-2013 10-12-2013 11-12-2013 8 11-12-2013

15:32:54 / 10:59:35 / 10:54:45 / 11:15:55 / 15:26:56 / 15:54:05 / 11:23:01 / 13:53:51

06-12-2013 09-12-2013 09-12-2013 5 20-12-2013

16:26:01 / 10:03:46 / 15:14:25 / 16:41:22

26-11-2013 26-11-2013 26-11-2013 03-12-2013 06-12-2013 6 10-12-2013

9:27:16 / 09:42:21 / 12:13:30 / 10:10:41 / 10:06:44 / 12:29:09

218 Evaluación Programa Software Educativo – Informe Final

451

457

No hay docente disponible en el establecimiento para poder 7 entrevistar.

4 Profesor con licencia.

Colegio indica que desde este año imparte clases desde 7° Básico en adelante, por tanto no corresponde la aplicación de la encuesta.

25-11-2013 26-11-2013 26-11-2013 02-12-2013 5 03-12-2013

17:12:05 / 10:51:26 / 12:36:02 / 15:18:59 / 09:55:00

Profesora con licencia. No cuenta con reemplazo.

26-11-2013 27-11-2013 28-11-2013 02-12-2013 03-12-2013 6 06-12-2013

16:38:34 / 08:35:56 / 15:43:46 / 16:05:24 / 16:06:19 / 11:37:59

219 Evaluación Programa Software Educativo – Informe Final

476

No se puede hacer contacto en 3 campaña 4.

No se puede hacer contacto ya que no se contesta las llamadas o se indica que no hay nadie disponible. Se realizan constantes llamadas en distintos días y horarios sin ningún resultado (27-11, 0212, 06-12, 09-12, 11-12).

27-11-2013 02-12-2013 05-12-2013 06-12-2013 06-12-2013 06-12-2013 06-12-2013 09-12-2013 9 11-12-2013

17:04:35 / 12:25:34 / 16:11:20 / 10:47:46 / 11:47:15 / 12:13:56 / 14:45:35 / 15:41:54 / 11:26:02

220 Evaluación Programa Software Educativo – Informe Final

Anexo 8. Resultados descriptivos A continuación de presentan los resultados descriptivos de las preguntas contenidas en las encuestas de Jefe de UTP y Docente. 1. Descripción muestra entrevistada

Tabla 1. Región establecimiento entrevistado.

Jefe de UTP Región Establecimiento

Docente

Frecuencia Porcentaje Frecuencia Porcentaje

Región de Arica y Parinacota

8

1,9%

10

2,2%

Región de Tarapacá

4

0,9%

3

0,7%

Región de Antofagasta

12

2,9%

12

2,7%

Región de Atacama

14

3,3%

15

3,3%

Región de Coquimbo

20

4,8%

22

4,9%

Región de Valparaíso

49

11,7%

48

10,7%

Región Metropolitana

83

19,7%

92

20,4%

Región del Libertador

33

7,9%

36

8,0%

Región del Maule

38

9,0%

42

9,3%

Región del Bíobío

82

19,5%

83

18,5%

Región de la Araucanía

25

5,9%

29

6,5%

9

2,1%

11

2,4%

29

6,9%

31

6,9%

4

0,9%

6

1,3%

10

2,4%

10

2,2%

Región de los Ríos Región de los Lagos Región de Aysén Región de Magallanes

420

Total

100%

450

100%

Tabla 2 Dependencia administrativa del establecimiento entrevistado.

Dependencia Establecimiento

Jefe de UTP

Frecuencia Porcentaje Frecuencia Porcentaje 264

Municipal

Docente

62,9%

278

61,8%

Particular Subvencionado

156

37,1%

172

38,2%

Total

420

100%

450

100%

221 Evaluación Programa Software Educativo – Informe Final

Tabla 3. Establecimientos entrevistados según plataforma utilizada.

Jefe de UTP Plataforma utilizada Arquimed Ediciones SM Gal&Leo

Docente

Frecuencia Porcentaje Frecuencia Porcentaje 69 16,4% 74 16,4% 120 27,6% 124 28,6% 131 33,1% 149 31,2%

Mi clase

100

23,8%

103

22,9%

Total

420

100%

450

100

Tabla 4. Establecimientos entrevistados según asignatura.

Jefe de UTP

Asignatura plataforma

Docente

Frecuencia Porcentaje Frecuencia Porcentaje 189 44,0% 198 45,0% 231 56,0% 252 55,0% 100% 450 420 100%

Inglés Matemáticas Total

2. Caracterización Entrevistados a. Información personal A continuación se presenta de modo descriptivo información personal de los jefes de UTP y Docentes entrevistados. Tabla 5. Edad promedio entrevistados.

Obs

Promedio Edad

DS. Edad

Edad Edad mínima máxima

Jefe UTP

420

48,7

9,9

21

70

Docente

449

38,6

10,8

22

64

Tabla 6. Sexo entrevistados.

Jefe de UTP Sexo Entrevistados Hombre

Docente

Frecuencia Porcentaje Frecuencia Porcentaje 103 21,4% 96 24,5%

222 Evaluación Programa Software Educativo – Informe Final

Mujer

317

75,5%

353

78,6%

Total

420

100%

449

100%

Tabla 7. Estado Civil entrevistados.

Jefe de UTP

Estado civil Entrevistados

Docente

Frecuencia Porcentaje Frecuencia Porcentaje 50,5% 89 227 21,2%

Soltero

271

Casado

64,5%

40,5%

182

7

1,7%

7

1,6%

Separado

19

4,5%

17

3,8%

Divorciado

22

5,2%

4

0,9%

Viudo

12

2,9%

12

2,7%

Total

420

Conviviente

100%

100%

449

Tabla 8. Título profesional entrevistados.

Jefe de UTP

Título profesional Entrevistados Educador de Párvulos Profesor de Educación General Básica

Docente

Frecuencia Porcentaje Frecuencia Porcentaje 0,0% 15 0 3,6% 304

72,4%

325

15,1%

Profesor de Educación Media

75

17,8%

Educador Diferencial

16

3,8%

1

Profesor de Inglés

0

0,0%

48

Profesor de Ed. Física

3

0,7%

0

0,0%

Psicopedagogo

2

0,5%

0

0,0%

Otro

5

1,2%

7

1,6%

420

Total

100%

68

72,4%

449

0,2% 10,7%

100%

Tabla 9. Docentes con postítulo de Mención.

¿Cuenta con alguna mención? Frecuencia Porcentaje Sí

251

55,9%

No

198

44,1%

Total

449

100%

223 Evaluación Programa Software Educativo – Informe Final

Tabla 10. Docente, especialidad de postítulo de mención.

Frecuencia Porcentaje

Especialidad Mención

105

41,8%

Mención en Matemáticas

81

32,2%

Mención Lenguaje y Comunicación

20

8,0%

Mención en Ciencias

9

3,6%

Mención en Historia

5

2,0%

Mención en Religión

4

1,6%

Mención en Trastornos de Aprendizaje

8

3,2%

Mención en Tecnología

3

1,2%

Mención en Primer Ciclo

6

2,4%

Mención en Inglés

10

Otra mención

4%

251

Total

100%

Tabla 11. Entrevistado con postítulo

Jefe de UTP Posee postítulo Sí No Total

Docente

Frecuencia Porcentaje Frecuencia Porcentaje 306 195 43,3% 72,9% 114 255 56,7% 27,1% 420

100%

450

100%

224 Evaluación Programa Software Educativo – Informe Final

Tabla 12. Temática postítulo.

Jefe de UTP

Temática postítulo Entrevistados

Docente

Frecuencia Porcentaje Frecuencia Porcentaje

Gestión y Dirección Escolar Política Educativa Psicopedagogía o Problemas de Aprendizaje

55 1 43

17,9%

5

2,6%

0,3%

3

1,5%

14,0%

27

96

31,3%

Didáctica

11

4,0%

9

4,6%

Convivencia Escolar

3

1,0%

2

1,0%

Inglés

0

0,0%

31

15,9%

Matemáticas

19

6,2%

39

20,0%

Lenguaje y comunicación

20

6,5%

0

0,0%

Administración/Supervisión

30

9,8%

7

3,6%

Orientación

9

2,9%

9

4,6%

Informática educativa

5

1,6%

0

0,0%

14

4,5%

34

17,4%

195

100%

Otra temática Total

306

100%

29

13,9%

Curriculum y Evaluación

14,9%

225 Evaluación Programa Software Educativo – Informe Final

b. Información laboral Tabla 13. Cargo actual Jefe de UTP en el establecimiento.

Frecuencia Porcentaje

Cargo Actual Jefe UTP

10

2,4%

Subdirector

4

0,9%

Jefe de UTP

378

90,0%

Orientador

2

0,5%

Coordinador académico

7

1,7%

Coordinador TIC

2

0,5%

12

2,8%

5

1,2%

420

100%

Director

Docente Otro Total

Tabla 14. Horas contratado Jefe de UTP en el establecimiento

Jefe de UTP

Obs

Promedio Horas

DS Horas

420

42,1

5,5

Horas Horas mínima máxima 3

44

Tabla 15. Años antigüedad en establecimiento Jefe de UTP.

Obs Jefe de UTP

Promedio Antigüedad Antigüedad DS Antigüedad Antigüedad mínima máxima

420

12,9

11,3

0

47

Tabla 16. Años experiencia profesional Jefe de UTP.

Jefe de UTP

Obs

Promedio años

DS años s

420

7,9

8,2

Años Años mínima máxima 0

42

226 Evaluación Programa Software Educativo – Informe Final

Tabla 17. Asistencia a cursos de perfeccionamiento en Tics en los últimos dos años.

Asistencia curso Tics Sí

Frecuencia Porcentaje Jefe UTP Jefe UTP 315 75,0%

No

105

25,0%

Total

420

100%

Tabla 18. Docente: Frecuencia y porcentaje de docentes que hace clase en cada asignatura.

Frecuencia docentes 253

Porcentaje docentes 56,2%

Lenguaje y Comunicación

165

36,7%

Historia, Geografía y Cs. Sociales

163

36,2%

Ciencias Naturales

168

37,3%

Inglés

210

46,7%

Artes Visuales

136

30,2%

Música

102

22,7%

Tecnología

158

35,1%

40

8,9%

145

32,2%

Asignatura en que hace clase actualmente Matemáticas

Educación Física Orientación

Tabla 19. Frecuencia y porcentaje de docentes de acuerdo al curso(s) en que hace clase.

1° Básico

Frecuencia docentes 118

Porcentaje docentes 26,2%

2° Básico

131

29,1%

3° Básico

260

57,8%

4° Básico

284

63,1%

5° Básico

265

58,9%

6° Básico

247

54,9%

7° Básico

241

53,6%

8° Básico

235

52,2%

36

8%

Curso en el que hace clase

Educación Media

227 Evaluación Programa Software Educativo – Informe Final

Tabla 20. Horas contratado Docente en el establecimiento

Docente

Obs

Promedio Horas

DS Horas

450

35,4

8,0

Horas Horas mínima máxima 4

44

Tabla 21. Años antigüedad en establecimiento Docente.

Obs Docente

Promedio Antigüedad Antigüedad DS Antigüedad Antigüedad mínima máxima

450

7,1

8,1

0

44

Tabla 22. Años experiencia profesional como Docente de aula

Docente

Obs

Promedio años

DS años s

450

11,9

10,1

Años Años mínima máxima 0

41

Tabla 23. Docente: Asistencia a cursos de perfeccionamiento en Tics en los últimos dos años.

Asistencia a cursos Tics Sí

Frecuencia Porcentaje Docentes Docentes 230 51,1%

No

220

48,9%

Total

450

100%

Tabla 24. Acreditaciones pedagógicas.

Cuenta con alguna acreditación pedagógica Frecuencia Porcentaje docentes docentes Asignación de Excelencia Pedagógica (AEP) Asignación Variable por Desempeño Individual (AVDI)

35

7,8%

90

20%

8

1,8%

201

44,7%

Red de Maestros de Maestros Evaluación Docente

228 Evaluación Programa Software Educativo – Informe Final

2. Uso de tecnologías Tabla 25. Posee computador en el hogar.

Jefe de UTP Posee computador Sí No

Docente

Frecuencia Porcentaje Frecuencia Porcentaje 415 444 98,7% 98,7% 5 6 1,3% 1,3%

Total

420

100%

450

100%

Tabla 26. Posee conexión a Internet en el hogar.

Posee conexión a Internet Sí No

Jefe de UTP

Docente

Frecuencia Porcentaje Frecuencia Porcentaje 397 426 94,7% 94,7% 23 24 5,3% 5,3%

Total

420

100%

450

100%

Tabla 27. Jefe de UTP: Frecuencia uso Internet en distintas actividades.

Nunca Buscar información de apoyo a la docencia Buscar información general Enviar y/o recibir correos electrónicos Comunicarse mediante mensajería instantánea o chat Participar en foros de opinión

Frecuencia de Uso de Internet Algunas 1 vez al 1 vez a A diario veces al mes la año semana

No sabe/no responde

0,2%

1,7%

2,4%

9,1%

86,4%

0,2%

0,5%

1,4%

1,7%

12,6%

83,6%

0,2%

0,2%

0,0%

0,5%

4,3%

94,8%

0,2%

11,4%

6,2%

5,7%

13,6%

62,4%

0,7%

18,3%

44,1%

14,3%

11,4%

10,7%

1,2%

229 Evaluación Programa Software Educativo – Informe Final

Tabla 28. Docente: Frecuencia uso Internet en distintas actividades.

Nunca Buscar información de apoyo a la docencia Buscar información general Enviar y/o recibir correos electrónicos Comunicarse mediante mensajería instantánea o chat Participar en foros de opinión

Frecuencia de Uso de Internet Algunas 1 vez al 1 vez a A diario veces al mes la año semana

No sabe/no responde

0,0%

0,7%

2,2%

14,0%

83,1%

0,0%

0,9%

1,1%

3,3%

22,0%

72,7%

0,0%

0,4%

0,5%

2,2%

17,1%

79,6%

0,2%

12,2%

4,7%

4,9%

12,2%

65,1%

0,9%

33,1%

22,4%

22,0%

12,7%

7,8%

2,0%

Tabla 29. Habilidades del Docente para actividades computacionales.

Nula Elaborar un documento con un procesador de texto Elaborar una planilla de cálculo para administrar las notas de los estudiantes Elaborar una presentación para proyectarla en la sala de clases Buscar en Internet recursos pedagógicos para preparar las clases

Habilidades computacionales Baja Regular Alta Muy alta

No sabe/no responde

3,1%

6,0%

29,8%

40,0%

21,1%

0,0%

0,9%

1,1%

3,3%

22,0%

72,7%

0,0%

0,4%

1,8%

6,0%

44,4%

47,3%

0,0%

0,2%

0,7%

4,0%

40,0%

55,1%

0,0%

230 Evaluación Programa Software Educativo – Informe Final

3. Infraestructura, tecnología y conectividad del establecimiento Tabla 30. Establecimiento tiene computadores en uso para los estudiantes

Establecimiento posee computadores para uso de los estudiantes Frecuencia Porcentaje 416

Sí No

99,5%

2

Total

0,5%

418

100%

Tabla 31. Cantidad de computadores disponibles y en uso para los estudiantes

Cantidad de computadores para uso de los estudiantes Frecuencia Porcentaje Menos de 10

7

Entre 10 y 20

80

20,0%

Entre 21 y 30

111

27,7%

Entre 31 y 40

56

14,8%

Entre 41 y 99

116

29,0%

Más de 100 Total

1,7%

27

6,8%

418

100%

Tabla 32. Calidad de computadores disponibles y en uso para los estudiantes

Calidad de los computadores en el establecimiento Frecuencia Porcentaje 0

Todos malos Algunos buenos y algunos malos

210

52,5%

Todos buenos

187

46,8%

Lo desconozco

3

Total

418

0,0%

0,7% 100%

231 Evaluación Programa Software Educativo – Informe Final

Tabla 33. Lugar donde están instalados los computadores

Lugar donde están los computadores Frecuencia Porcentaje Establecimientos. Establecimientos Sala o laboratorio de computación/enlaces Centro de Recursos para el aprendizaje (CRA) Computadores móviles Otro lugar

395

98,8%

254

63,5%

293

73,3%

63

15,8%

Tabla 34. Tipo de conexión con que cuenta el establecimiento

Tipo de conexión con que cuenta el establecimiento Frecuencia Porcentaje Establecimientos Establecimientos Banda Ancha

261

Banda Ancha Móvil (BAM) Wifi Conmutada (por módem telefónico)

65,9%

19

4,8%

273

68,9%

47

11,9%

Otro sistema

10

10,1%

No sabe

14

3,5%

Tabla 35. Velocidad de conexión de los computadores

Frecuencia Porcentaje Menos de 2 megas

47

11,9%

Entre 2 y 9 megas

146

36,9%

Entre 10 y 19 megas

33

8,3%

Entre 20 y 39 megas

42

10,6%

Entre 40 y 99 megas

26

6,6%

4

1,0%

Más de 100 megas No sabe Total

98

24,7%

396

100%

232 Evaluación Programa Software Educativo – Informe Final

Tabla 36. Calidad de la conexión a Internet del establecimiento.

Calidad de la conexión a Internet de los computadores en el establecimiento Frecuencia Porcentaje Establecimientos Establecimientos 27 6,8%

Muy buena Buena

140

35,4%

Regular

168

42,4%

42

10,6%

Mala Muy mala

19

Total

4,8%

396

100%

Tabla 37. Existencia de Encargado de Enlaces en el establecimiento.

Establecimiento cuenta con encargado de enlaces Frecuencia Porcentaje Establecimientos Establecimientos 399 95,5%

Sí No

19

Total

418

4,5% 100%

233 Evaluación Programa Software Educativo – Informe Final

4. Instalación del programa en los establecimientos Tabla 38. Cómo supo de la existencia del programa.

¿Cómo supo del programa? Porcentaje Porcentaje Jefe UTP Docente Por Mineduc /Enlaces Por institución implementadora del software

63,8%

25,1%

14,3%

7,6%

Por medio de la página de internet Por el sostenedor del establecimiento

5,5%

3,8%

15,7%

19,8%

36,4%

51,1%

-

47,3%

No recuerda No tiene información relativa al programa

1,0%

0,0%

3,1%

3,3%

Otro

5,0%

5,1%

Por el director del establecimiento Por el jefe de UTP del establecimiento

Tabla 39. Jefe de UTP: Persona del establecimiento que recibió invitación a participar

Primera persona que recibió invitación a participar Frecuencia Porcentaje Sostenedor(a) Director(a)

20 255

5,0% 63,6%

Inspector(a)

1

Jefe de UTP

42

10,5%

0,3%

Un docente

22

5,5%

Encargado de Enlaces

27

6,7%

No sabe

30

7,5%

Otro

4

1,0%

Total

401

100%

234 Evaluación Programa Software Educativo – Informe Final

Tabla 40. Jefe de UTP, cuando supo existencia del programa.

¿Cuándo conoció la existencia del programa? 2012 2013 No No Total sabe recuerda Enero

6

0

1

0

7

Febrero

3

2

0

0

5

Marzo

46

16

1

1

64

Abril

37

16

2

2

57

Mayo

29

8

0

1

38

Junio

22

5

0

0

27

9

1

0

0

10

28

0

0

0

28

6

4

0

2

10

Octubre

31

1

0

0

34

Noviembre

Julio Agosto Septiembre

16

1

0

1

17

Diciembre

8

0

0

0

9

No sabe

4

0

19

0

23

41

1

1

29

72

286

55

24

36

401

No recuerda Total

235 Evaluación Programa Software Educativo – Informe Final

Tabla 41. Docente, cuando supo existencia del programa.

¿Cuándo conoció la existencia del programa? 2012 2013 No No Total sabe recuerda Enero

0

0

0

0

0

Febrero

0

1

0

0

1

Marzo

25

36

0

0

61

Abril

27

26

0

0

53

Mayo

30

22

0

0

52

Junio

14

11

0

0

25

6

4

0

0

10

Agosto

28

12

0

0

40

Septiembre

15

5

0

0

20

Octubre

58

5

0

0

63

Noviembre

24

9

0

0

33

Diciembre

8

0

0

0

8

No sabe

0

0

0

0

0

59

10

0

1

70

294

141

0

1

436

Julio

No recuerda Total

Tabla 42. Jefe de UTP, motivación a postular al programa.

¿Qué los motivó a postular al programa? Frecuencia Porcentaje Significaba una herramienta provechosa para incluirlo como recurso de apoyo Significaba una herramienta provechosa para incluirlo como recurso central

305

76,1%

20

5,0%

Era relevante incorporar Tics

44

11,0%

Era gratis

13

3,2%

5

1,2%

14

3,5%

401

100%

No sabe/No recuerda Otra Total

236 Evaluación Programa Software Educativo – Informe Final

Tabla 43. Docente, respecto a la decisión de implementar el programa.

Decisión de implementar el programa Frecuencia Porcentaje Le consultaron sobre la opción de implementar y su interés en participar en ello No le consultaron su opinión sobre la opción de implementar Le informaron que se iba a implementar

157

36,0%

41

9,4%

195

44,7%

No le informaron que se iba a implementar

23

5,3%

El programa se estaba implementando desde antes

11

2,5%

Docente tomó iniciativa respecto a implementar

5

1,2%

Otra

4

0,9%

436

100%

Total

Tabla 44. Jefe de UTP, acción realizada para implementar el programa.

¿Qué acción se realizó para implementar el programa? Frecuencia Porcentaje Dejaron la planificación del uso del programa para más adelante Comenzaron a interiorizarse del programa, pero no lo incluyeron en la planificación Comenzaron a interiorizarse del programa y lo incluyeron en la planificación

22

5,5%

116

28,9%

183

45,6%

9

2,2%

El programa no se implementó en el establecimiento

54

13,5%

Otra

17

4,3%

401

100%

No tomaron medidas para su implementación

Total

237 Evaluación Programa Software Educativo – Informe Final

Tabla 45. Jefe de UTP, cuando comenzó a implementarse el programa.

¿Cuándo comenzó a implementarse el programa? 2012 2013 No No Total sabe recuerda Enero

0

0

0

0

0

Febrero

0

1

0

0

1

Marzo

15

39

0

1

55

Abril

20

37

0

0

57

Mayo

24

20

0

0

44

Junio

11

14

0

0

25

7

4

0

0

11

32

8

0

0

40

Julio Agosto Septiembre

9

6

0

0

15

Octubre

19

3

0

0

22

Noviembre

14

0

0

0

14

Diciembre

2

0

0

0

2

No sabe

2

0

13

0

15

32

4

0

10

46

187

136

13

11

347

No recuerda Total

Tabla 46. Difusión del programa.

Hubo difusión del programa en establecimiento

Jefe de UTP

Docente

Frecuencia Porcentaje Frecuencia Porcentaje



270

77,8%

284

65,1%

No

77

29,2%

152

34,9%

347

100%

436

100%

Total

238 Evaluación Programa Software Educativo – Informe Final

Tabla 47. Líder difusión.

Jefe de UTP Docente ¿Quién lideró instancia de difusión? Frecuencia Porcentaje Frecuencia Porcentaje 3 3 1,1% Sostenedor(a) 1,1% 79 78 27,5% Director(a) 26,3% Inspector(a)

0

Jefe de UTP

96

35,6%

104

36,6%

Un docente

39

14,4%

44

15,5%

Encargado de enlaces

41

15,2%

35

12,3%

0,0%

Docente Entrevistada Otro Total

12 270

4,4% 100%

1

0,3%

8

2,8%

11

3,9%

284

100%

Tabla 48. Docente, acción realizada para implementar el programa.

¿Qué acción realizó Ud. para implementar el programa? Frecuencia Porcentaje Dejó la planificación del uso del programa para más adelante Comenzó a interiorizarse del programa, pero no lo incluyeron en la planificación Comenzó a interiorizarse del programa y lo incluyeron en la planificación

10

2,3%

106

24,3%

223

51,2%

No tomó medidas para su implementación

13

3,0%

El programa no se implementó en el establecimiento

66

15,1%

Otra

18

4,1%

436

100%

Total

239 Evaluación Programa Software Educativo – Informe Final

Tabla 49. Evaluación del compromiso con el programa.

Evaluación del compromiso con el programa (nota 1 a 7) Promedio Promedio Jefe UTP Docente Sostenedor(a)

5,4

5,1

Director(a)

6,1

6,0

Jefe de UTP

6,0

6,0

Un docente

6,0

5,4

Encargado de enlaces

5,9

5,8

-

6,1

Docente entrevistado(a)

Tabla 50. Docente, recibió instrucciones sobre cómo implementar el programa.

Instrucciones como implementar programa Frecuencia Porcentaje Sí

235

63,5%

No

135

36,5%

Total

370

100%

Tabla 51. Docente, quién dio instrucciones sobre cómo implementar el programa.

Instrucciones como implementar programa Frecuencia Porcentaje Sostenedor(a)

5

2,1%

Director(a)

24

10,2%

Jefe de UTP

74

31,5%

Encargado de Enlaces

49

20,9%

Administradores Software

66

28,1%

Otro Total

17 235

7,2% 100%

240 Evaluación Programa Software Educativo – Informe Final

Capacitación Tabla 52. Asistencia a capacitación.

Jefe de UTP Docente Asistió a capacitación Frecuencia Porcentaje Frecuencia Porcentaje del programa 148 253 58,0% Sí 36,9% 253 183 42,0% No 63,1% Total

401

436

100%

100%

Tabla 53. Docente, persona que realizó la capacitación.

¿Quién realizó la capacitación? Frecuencia Porcentaje Profesional institución implementadora

200

79,1%

34

13,4%

Sostenedor(a)

1

0,4%

Director(a)

0

0,0%

Jefe de UTP

3

1,2%

Encargado de Enlaces

10

3,9%

No sabe/ no recuerda

4

1,6%

Otra

1

0,4%

401

100%

Profesional Mineduc/Enlaces

Total

Tabla 54. Horas de capacitación.

Obs

Promedio Horas

Jefe de UTP

148

4,2

2,8

1

20

Docente

253

3,8

3,0

1

34

DS Horas

Horas Horas mínima máxima

241 Evaluación Programa Software Educativo – Informe Final

Tabla 55. Jefe de UTP, fecha en que se realizó la capacitación.

¿Cuándo se realizaron las jornadas de capacitación? 2012 2013 No sabe No Total recuerda Enero

0

0

0

0

0

Febrero

0

0

0

0

0

Marzo

2

6

0

0

8

Abril

8

4

0

0

12

Mayo

8

2

1

1

12

Junio

8

0

0

0

8

Julio

5

2

0

0

7

Agosto

6

0

0

0

6

Septiembre

13

0

0

0

13

Octubre

23

1

0

0

24

Noviembre

10

0

0

1

11

Diciembre

3

0

0

0

3

No sabe No recuerda

0

0

1

0

1

Total

23

5

1

14

43

109

20

16

3

148

242 Evaluación Programa Software Educativo – Informe Final

Tabla 56. Docente, fecha en que se realizó la capacitación.

¿Cuándo se realizaron las jornadas de capacitación? 2012 2013 No sabe No Total recuerda Enero

0

1

0

0

1

Febrero

0

0

0

0

0

Marzo

6

5

0

0

11

Abril

14

7

0

1

22

Mayo

19

9

0

0

28

Junio

12

2

0

0

14

3

3

0

0

6

16

1

0

0

17

Julio Agosto Septiembre

8

1

0

0

9

Octubre

53

1

0

0

54

Noviembre

19

2

0

0

21

Diciembre

3

0

0

0

3

No sabe

0

0

0

0

0

50

9

0

8

67

203

41

0

9

253

No recuerda Total

Tabla 57. Contenidos jornada de capacitación.

Explicación contenidos jornada de capacitación Porcentaje Porcentaje Jefe de UTP Docente

Se explicaron… Los objetivos del programa

87,8%

93,7%

La relevancia del programa

67,6%

79,8%

Su rol para el funcionamiento del programa

65,5%

78,3%

La carta Gantt de la implementación del programa

31,8%

30,4%

Funcionamiento de la plataforma Realización de un instrumento de evaluación diagnóstica al comienzo de la utilización Realización de un instrumento de evaluación final al fin de la utilización

90,5%

89,7%

52,0%

62,9%

31,1%

45,5%

2,0%

5,9%

Otro

243 Evaluación Programa Software Educativo – Informe Final

Ninguna de las anteriores

2,0%

0,0%

Tabla 58. Jefe de UTP, evaluación jornada de capacitación.

Contenido capacitación

Obs

Nota Promedio

DS Nota

148

4,9

1,3

Nota Nota mínima máxima 1

7

Tabla 59. Docente, evaluación jornada de capacitación.

Obs

Nota Promedio

DS Nota

253

5,6

1,4

1

7

Claridad de los expositores Pertinencia de los contenidos pedagógicos según el currículum de la asignatura

253

5,8

1,2

1

7

253

5,7

1,4

1

7

Duración

253

4,7

1,5

1

7

Utilidad pedagógica de los contenidos de la plataforma

Nota Nota mínima máxima

244 Evaluación Programa Software Educativo – Informe Final

5. Uso del programa Tabla 60. Jefe de UTP, cantidad de docentes en asignatura del programa.

Cantidad docentes en la asignatura y nivel que se aplica el programa Frecuencia Porcentaje 1

158

37,7%

2

164

41,2%

76

19,1%

398

100%

3 o más Total

Tabla 61. Jefe de UTP, cantidad de docentes utilizando el programa.

Cantidad docentes que han utilizado el programa Frecuencia Porcentaje 0

59

14,8%

1

124

31,2%

2

134

33,7%

3 o más Total

81

20,3%

398

100%

Tabla 62. Docente, uso el programa.

Uso del programa Frecuencia Porcentaje 82

18,8%

Regularmente

134

30,7%

A veces

140

32,1%

Siempre

Nunca

80

18,4%

Total

436

100%

245 Evaluación Programa Software Educativo – Informe Final

Tabla 63. Razones de no uso el programa.

Razones de no uso del programa No había computadores suficientes para todos los estudiantes Los computadores disponibles para los estudiantes estaban en mal estado No había una sala de enlaces en el establecimiento en la que utilizar el software con los estudiantes o si existía no estaba disponible para esos fines Hubo dificultades para coordinar el horario de la sala de computación para el uso del programa La calidad de conexión a Internet del establecimiento impidió poder llevar a cabo la implementación del programa Hubo cambios en los equipos de trabajo en algunos cargos fundamentales para el uso del programa No hubo claridad en la información entregada respecto de cómo había que implementar el programa No hubo tiempo suficiente para planificar la implementación del programa Hubo problemas con las claves de los alumnos para que accedieran a la plataforma Hubo interés inicial en el establecimiento pero finalmente se consideró que el programa no era útil para los fines pedagógicos del establecimiento No hubo involucramiento de las autoridades y docentes en el uso del programa Otra razón

Porcentaje Porcentaje Jefe de Docente UTP 22,0%

23,7%

17,0%

25,0%

8,5%

10,0%

1,7%

11,3%

39,0%

55,0%

15,3%

8,8%

23,7%

28,8%

10,2%

20,0%

22,0%

20,0%

5,1%

6,3%

8,5%

10,0%

45%

30%

246 Evaluación Programa Software Educativo – Informe Final

Tabla 64. Jefe de UTP, tiempo promedio semanal de uso del programa por docente.

Tiempo promedio semanal de uso del programa Frecuencia Porcentaje 0-30 minutos

53

15,5%

31 minutos a 1 hora

92

27,0%

Más de 1 hora No sabe o no lo tiene claro

166

48,7%

Total

341

30

8,8% 100%

247 Evaluación Programa Software Educativo – Informe Final

Tabla 65. Razones de bajo uso el programa.

Razones de bajo uso del programa No había computadores suficientes para todos los estudiantes Los computadores disponibles para los estudiantes estaban en mal estado No había una sala de enlaces en el establecimiento en la que utilizar el software con los estudiantes o si existía no estaba disponible para esos fines Hubo dificultades para coordinar el horario de la sala de computación para el uso del programa La calidad de conexión a Internet del establecimiento impidió poder llevar a cabo la implementación del programa Hubo cambios en los equipos de trabajo en algunos cargos fundamentales para el uso del programa No hubo claridad en la información entregada respecto de cómo había que implementar el programa No hubo tiempo suficiente para planificar la implementación del programa Hubo problemas con las claves de los alumnos para que accedieran a la plataforma Hubo dificultades por parte de los docentes en el uso del programa Hubo interés inicial en el establecimiento pero finalmente se consideró que el programa no era útil para los fines pedagógicos del establecimiento No hubo involucramiento de las autoridades y docentes en el uso del programa Los servicios de apoyo de la institución que administra el software y que son necesarios para que el programa funcione son deficientes Otra razón

Porcentaje Porcentaje Jefe de Docente UTP 31,3%

42,0%

15,7%

22,0%

1,2%

8,0%

26,5%

24,0%

54,2%

64,0%

15,7%

6,0%

41,7%

32,0%

28,9%

46,0%

45,8%

50,0%

33,7

-

8,4%

16,0%

16,9%

18,0%

30,1%

34,0%

24,1%

22,0%

248 Evaluación Programa Software Educativo – Informe Final

Tabla 66. Jefe de UTP, planificación para uso del programa.

Existe alguna planificación para el uso del programa Frecuencia Porcentaje Sí

195

57,2%

No

146

42,8%

Total

341

100%

Tabla 67. Docente, tiempo destinado a la planificación para uso del programa.

Tiempo promedio destinado a la semana para planificación uso del programa Frecuencia Porcentaje Menos de 1 hora

115

32,3%

Entre 1 y 2 horas

159

44,7%

Entre 2 y 3 horas

17

4,8%

Más de 3 horas

10

2,8%

No ha destinado tiempo

55

15,4%

356

100%

Total

Tabla 68. Docente, uso de plataforma en casa por los alumnos.

Cantidad de estudiantes que utiliza plataforma en sus casas Frecuencia Porcentaje 17

Todos

4,8%

Algunos

222

62,3%

Ninguno

117

32,9%

Total

356

100%

249 Evaluación Programa Software Educativo – Informe Final

Tabla 69. Docente, razones de bajo uso de plataforma en casa por los alumnos.

Razones de bajo uso del programa en las casas Porque la institución implementadora no dio esta opción

Porcentaje Docente 9,1%

Porque los estudiantes no cuentan con computadores en sus casas

66,7%

Porque los estudiantes no cuentan con conexión a Internet en sus casas Porque resulta difícil para el profesor hacer seguimiento al trabajo del estudiante en casa Porque hay tiempo suficiente para que el estudiante trabaje en la clase y no en casa Porque existen las condiciones físicas y/o materiales para hacerlo en el establecimiento Porque no existió motivación por parte de los estudiantes para trabajar en la plataforma en sus casas

87,0%

Otro razón

10,6%

29,5% 14,5% 24,2% 31,3%

Tabla 70. Docente, modalidades de trabajo en la plataforma.

Modalidad de trabajo en la plataforma

Porcentaje Docente

Individual, cada uno en un computador

58,2%

Rotado por grupos de estudiantes del curso completo

11,2%

En grupos de dos personas

46,9%

En grupos de 3 o más personas

9,0%

250 Evaluación Programa Software Educativo – Informe Final

Tabla 71. Docente, razones de trabajo con esta modalidad.

Razones de trabajo con esta modalidad Frecuencia Porcentaje El establecimiento cuenta con la cantidad necesaria de equipos para cada estudiante El establecimiento cuenta con la cantidad necesaria de equipos para cada estudiante, pero no todos cuentan con conexión a Internet El establecimiento cuenta con una menor cantidad de equipos utilizables en relación al número de estudiantes del curso No todos los estudiantes contaban con la clave de acceso Conexión a Internet deficiente Otro Total

160 44,9% 42 11,8% 128 36,0% 9 2,5% 6

1,7%

11

3,1%

356

100%

Tabla 72. Docente, uso de soporte técnico.

Uso de soporte técnico Frecuencia Porcentaje Sí

212

59,6%

No

144

40,4%

Total

356

100%

Tabla 73. Docente, respuesta de soporte técnico.

Respuesta de soporte técnico Frecuencia Porcentaje Muy satisfactoria

40

18,9%

Satisfactoria

97

45,8%

Poco satisfactoria

59

27,8%

Nada satisfactoria

16

7,5%

Total

212

100%

251 Evaluación Programa Software Educativo – Informe Final

Tabla 74. Docente, dificultades de funcionamiento de la plataforma.

Tuvo dificultades en el funcionamiento de la plataforma

Porcentaje Docente

Sí, porque la conectividad a Internet ha sido defectuosa Sí, porque la instalación del software en los equipos ha tenido dificultades Sí, porque la capacidad del establecimiento para que muchos computadores trabajen simultáneamente es escasa Sí, porque no se contó con la clave de todos los alumnos desde el comienzo de la implementación Sí, porque las claves entregadas a los alumnos eran complejas de memorizar por estos Sí, porque cuando se solicitó la reposición o entrega de claves a la empresa implementadora, la respuesta fue muy lenta o no existió

60,4%

No, en realidad ha funcionado correctamente

18,5%

33,7% 37,6% 32,9% 17,7% 21,1%

252 Evaluación Programa Software Educativo – Informe Final

6. Integración del programa en el aula Tabla 75. Docente, posibilidad de integrar software a la planificación.

Integración software a la planificación del docente Frecuencia Porcentaje Sí

226

63,5%

No

130

36,5%

Total

356

100%

Tabla 76. Docente, razón de no integrar software a la planificación.

Razón de no integración a la planificación Porque no seguía los ejes temáticos del currículum Porque no contaba con contenidos que se ajustaran a la programación previa de la asignatura Porque no había tiempo para planificar qué contenidos del programa servían para el currículum de la clase Porque la organización de temas y contenidos del programa estaban desordenados como para integrarlos a la clase

Porcentaje Docente 20,0% 30,0% 49,2% 23,1%

Porque el programa tenía muchos errores conceptuales Porque el contenido y/o diseño no se ajustaba al nivel de los estudiantes

4,6% 30,0%

Otra razón

33,9%

Tabla 77. Docente, forma de integrar software a la planificación.

Integración programa a la planificación

Porcentaje Docente

Tuvo un uso central en la clase

12,4%

Tuvo un uso complementario a la clase

59,6%

Tuvo un uso de apoyo a los contenidos de la clase

38,8%

Tuvo un uso de apoyo a la ejercitación de la clase

55,6%

Fue usado como repaso fuera del horario de la asignatura

29,8%

Otra manera

7,0%

253 Evaluación Programa Software Educativo – Informe Final

Tabla 78. Docente, colaboración para integrar software a la planificación.

Porcentaje Docente

Recibió colaboración en la implementación Sí, del director

33,7%

Sí, del Inspector

6,5%

Sí, del Jefe de UTP

44,4%

Sí, del Encargado de Enlaces

61,8%

Sí, de un asesor de la asignatura

5,6%

Sí, de otro

13,5%

No, no hubo apoyo de personas diferentes al docente

15,5%

Tabla 79. Docente, apoyo desde institución implementadora.

Apoyo desde institución implementadora para integrar plataforma Frecuencia Porcentaje Sí

80

22,5%

No

276

77,5%

Total

356

100%

Tabla 80. Docente, apoyo desde Mineduc/Enlaces.

Apoyo desde Mineduc/Enlaces para integrar plataforma Frecuencia Porcentaje Sí

45

12,6%

No

311

87,4%

Total

356

100%

254 Evaluación Programa Software Educativo – Informe Final

Tabla 81. Docente, evaluación elementos plataforma.

Evaluación elementos plataforma

Fácil de implementar

Ni fácil ni Difícil de difícil de implementar implementar 29,5% 7,0%

% total Docentes

Interactivos

63,5%

Multimedia

48,9%

35,9%

15,2%

100% 100%

Gráficos

54,2%

30,1%

15,7%

100%

Escritos

61,2%

25,0%

13,8%

100%

Imágenes

78,9%

14,9%

6,2%

100%

Sonido

47,5%

21,9%

30,6%

100%

De voz

43,3%

27,5%

29,2%

100%

Teóricos

50,3%

34,5%

15,2%

100%

De práctica

62,1%

26,7%

11,2%

100%

Tabla 82. Docente, evaluación diseño plataforma.

Diseño de plataforma contribuyó a integración a la planificación Frecuencia Porcentaje Sí

259

72,8%

No

97

27,2%

356

100%

Total

Tabla 83. Docente, contribuciones diseño plataforma.

Contribuciones diseño plataforma

Porcentaje Docente

Es fácil de usar para el estudiante

69,9%

Es amigable para el estudiante

78,0%

Es comprensible para el estudiante

64,5%

Es intuitiva para el estudiante

46,3%

Es interactiva para el estudiante

86,1%

Es atractiva visualmente para el estudiante

84,9%

Es motivadora para el estudiante

76,1%

Es estimulante para el estudiante

65,6%

255 Evaluación Programa Software Educativo – Informe Final

Es ordenada en su organización

69,9%

Tabla 84. Docente, dificultades diseño plataforma.

Dificultades diseño plataforma

Porcentaje Docente

Es difícil de usar para el estudiante

28,9%

Es poco amigable para el estudiante

26,8%

Es incomprensible para el estudiante

25,8%

Es poco intuitiva para el estudiante

24,7%

Es poco interactiva para el estudiante

15,5%

Es poco atractiva visualmente para el estudiante

23,7%

Es poco motivadora para el estudiante

30,9%

Es poco estimulante para el estudiante

30,9%

Es desordenada en su organización

39,2%

256 Evaluación Programa Software Educativo – Informe Final

7. Valoración de la utilidad del programa Tabla 85. Jefe de UTP, evaluación software.

Fluidez en la comunicación entre el establecimiento y la empresa que administra el software Fluidez de la información entre Jefe de UTP y docentes al interior del establecimiento Utilidad del programa para el aprendizaje de los alumnos Visión general del programa

Obs

Nota Promedio

DS Nota

Nota Nota mínima máxima

333

5,0

1,5

1

7

330

5,8

1,0

1

7

328

5,8

1,2

1

7

327

5,8

1,2

1

7

Tabla 86. Docente, evaluación software.

Obs

Nota Promedio

Pertinencia de la información entregada

343

5,1

1,5

1

7

Facilidad de uso

352

5,8

1,3

1

7

Rapidez de funcionamiento Reporte de avance de los estudiantes Ejercicios entregados para los estudiantes Calidad conceptual de los contenidos

346

5,1

1,5

1

7

334

5,4

1,6

1

7

343

5,9

1,3

1

7

351

6,0

1,1

1

7

Visión general del programa

354

5,8

1,1

1

7

DS Nota

Nota Nota mínima máxima

257 Evaluación Programa Software Educativo – Informe Final

Tabla 87. Docente, evaluación software por plataforma.

Notal promedio evaluación por plataforma Arquimed

Ediciones SM Gal&Leo

Mi clase

Pertinencia de la información entregada

4,5

5,2

5,1

5,5

Facilidad de uso

5,0

5,8

5,8

6,2

Rapidez de funcionamiento Reporte de avance de los estudiantes Ejercicios entregados para los estudiantes Calidad conceptual de los contenidos

4,4

4,9

5,2

5,9

5,1

5,2

5,4

5,8

5,4

5,8

5,8

6,3

5,4

6,0

6,0

6,5

Visión general del programa

5,0

5,9

5,8

6,1

Tabla 88. Docente, aspectos de diseño del software.

Obs

Nota Promedi o

DS Nota

Nota mínim a

Nota máxim a

Colores

354

6,4

1,0

1

7

Imágenes

354

6,4

1,0

1

7

Herramientas de sonido

317

5,9

1,3

1

7

Herramientas de voz

302

5,8

1,4

1

7

Herramientas multimedia

336

6,1

1,1

1

7

Herramientas interactivas

350

6,3

1,0

1

7

258 Evaluación Programa Software Educativo – Informe Final

Tabla 89. Docente, aspectos de diseño del software por plataforma.

Notal promedio evaluación por plataforma Arquimed

Ediciones SM Gal&Leo

Mi clase

Colores

5,7

6,8

6,5

6,4

Imágenes

5,7

6,7

6,4

6,4

Herramientas de sonido

5,1

6,2

6,1

5,9

Herramientas de voz

4,8

6,0

6,0

5,8

Herramientas multimedia

5,4

6,2

6,2

6,4

Herramientas interactivas

5,5

6,5

6,3

6,4

Tabla 90. Docente, evaluación respuesta estudiantes al software.

Evaluación respuesta estudiantes

Porcentaje Docente

Se motivaron

73,0%

Les gustó

78,1%

Aprendieron más sobre la asignatura

60,4%

Autogestionaron el avance de su aprendizaje

44,9%

Disfrutaron de la experiencia

67,1%

No les gustó

7,2%

Fue una mala experiencia para ellos

2,5%

Fueron indiferentes ante la plataforma

14,3%

259 Evaluación Programa Software Educativo – Informe Final

Tabla 91. Jefe de UTP, evaluación de habilidades y/o conocimientos desarrollados con el software.

Habilidades y/o conocimientos logrados Frecuencia Porcentaje Mayor comprensión lectora

122

35,8%

32

23,0%

90

64,8%

88

63,3%

41

29,5%

Mayores habilidades Tecnológicas

208

61,0%

Mayores habilidades de auto-aprendizaje Mejor comprensión del contenido de las asignaturas No he observado el desarrollo de habilidades en los estudiantes

212

62,2%

170

49,9%

45

13,2%

19

5,6%

Mejoramiento en la escritura

19

20

Comprensión auditiva

21

Mejora de vocabulario

Mejoramiento de la Comunicación Oral

22

Otro

19 20 21 22

Esta Esta Esta Esta

habilidad habilidad habilidad habilidad

solo solo solo solo

se se se se

preguntó preguntó preguntó preguntó

a a a a

los los los los

Jefes Jefes Jefes Jefes

de de de de

UTP UTP UTP UTP

de de de de

plataformas plataformas plataformas plataformas

de de de de

inglés inglés inglés inglés

260 Evaluación Programa Software Educativo – Informe Final

Tabla 92. Docente, evaluación de habilidades y/o conocimientos desarrollados con el software.

Habilidades y/o conocimientos logrados Inglés Matemáticas Frecuencia Porcentaje Frecuencia Porcentaje Mayor comprensión lectora

65

45,5%

114

53,5%

Mejoramiento en la escritura

41

28,7%

-

-

Comprensión auditiva

96

67,1%

-

-

Mejora de vocabulario

101

70,6%

-

-

Mejoramiento de la Comunicación Oral

29

20,3%

-

-

Mayores habilidades Tecnológicas

90

62,9%

159

74,7%

Mayores habilidades de auto-aprendizaje Mejor comprensión del contenido de las asignaturas No he observado el desarrollo de habilidades en los estudiantes

72

50,4%

146

68,5%

56

39,2%

134

62,9%

15

10,5%

16

7,5%

8

5,6%

17

8,0%

Otro

Tabla 93. Docente, evaluación del programa

Propia respuesta frente al programa

Porcentaje Docente

Fue difícil implementarlo al principio

35,4%

Fue difícil utilizarlo durante todo el proceso

18,3%

Fue un desafío para mi formación tecnológica

34,8%

Influyó positivamente en mi formación profesional

55,6%

No tuve mayores dificultades para utilizarlo

52,8%

No tengo una opinión clara de mi propia respuesta

5,6%

261 Evaluación Programa Software Educativo – Informe Final

Tabla 94. Acciones para implementar de mejor manera software.

Acciones para implementar de mejor manera el software Porcentaje Porcentaje Jefe UTP Docente Disminuir el tamaño del curso

16,1%

26,3%

Aumentar la cantidad de computadores disponibles

42,2%

52,9%

Mejorar la conexión a Internet de los computadores

61,0%

75,6%

Integrar mejor el software a la planificación de la asignatura Generar una política a nivel del establecimiento para motivar el uso del software Contar con mayor apoyo del sostenedor y/o director del establecimiento Generar mayor motivación y sensibilización en los docentes para el uso del software

57,5%

64,6%

39,3%

59,2%

14,7%

36,3%

38,7%

47,9%

Tener tiempo suficiente para implementar el software

48,7%

68,9%

1,8%

1,7%

13,5%

19,4%

No habría que mejorar nada Otro Tabla 95. Aspectos a mejorar en software.

Aspectos a mejorar desde institución administradora Frecuencia Frecuencia Jefe UTP Docente Mayor cantidad de capacitaciones Entrega de un cronograma claro de etapas y actividades a desarrollar

65,0%

77,8%

61,0%

77,0%

Mejorar el diseño y/o diagramación del programa

19,8%

26,0%

Mejorar la organización de los contenidos de la plataforma web

23,8%

35,2%

Mejorar la comunicación desde la institución administradora Mejorar los servicios de ayuda en línea desde la institución administradora Incorporar seguimiento presencial al uso del software desde la institución administradora Entregar soluciones oportunas y eficaces a los problemas que se han presentado en el establecimiento

47,0%

63,7%

36,8%

50,9%

52,8%

65,2%

38,5%

52,7%

4,5%

2,2%

12%

6,8%

No habría que mejorar nada Otro

262 Evaluación Programa Software Educativo – Informe Final

Tabla 96. Sugerencias para mejorar implementación del software.

Sugerencias para mejorar la implementación Frecuencia Frecuencia Jefe UTP Docente Que haya más difusión del programa al interior del establecimiento Que las autoridades del establecimiento apoyaran de mejor forma su implementación Que haya un encargado de informática que apoye con horas fijas la implementación del software Que haya mayor claridad sobre los objetivos y la visión del programa Que se realice una mejor división de roles entre los miembros del establecimiento para implementar el programa Mejorar la planificación horaria para el uso de los computadores requeridos para la implementación del programa

42,8%

59,6%

17,0%

39,4%

35,3%

57,2%

39,8%

51,3%

18,5%

32,4%

29,8%

48,6%

Mejorar la calidad de los computadores

36,3%

56,0%

Mejorar la conexión a Internet

57,0%

76,1%

No tengo sugerencias

8,0%

5,5%

Otro

8,0%

8,0%

263 Evaluación Programa Software Educativo – Informe Final

Anexo 9. Resultados según puntaje SIMCE Este cuadro se presenta en las siguientes páginas, diferenciado según género así como por dependencia. El primer caso se muestra en las tablas 88 y 89 para los estudiantes hombres y mujeres respectivamente, donde la situación observada tanto por género como por grupo socioeconómico se ve inalterada. Es decir, se aprecia al comparar ambos cuadros que los hombres presentan mayores puntajes que las mujeres para cada categoría de la variable grupo socioeconómico, así como también se observa que a medida que se avanza en la categoría de grupo socioeconómico, los puntajes que alcanzan los estudiantes son cada vez mayores.

Tabla A9.1: Puntajes Pruebas SIMCE 4º Básico año 2012, según grupo socioeconómico en Hombres

Grupo Socioeconómico Bajo Medio Bajo Medio Medio Alto Alto Bajo Medio Bajo Medio Medio Alto Alto Bajo Medio Bajo Medio Medio Alto Alto

Prueba

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

N. Alumnos 11862 33356 36995 18325 9836 11808 33338 36965 18356 9830 11378 33046 36912 18360 9821

Media 239.84 247.15 262.84 279.40 296.65 237.24 247.23 263.38 280.95 301.39 233.47 242.78 261.14 280.24 300.64

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 52.54 104.20 377.25 2729 244.21 52.51 116.21 374.67 52.05 108.95 377.25 12022 247.89 52.12 110.93 377.25 51.19 110.67 377.25 12052 263.77 51.23 110.67 377.25 47.49 113.01 377.25 2381 280.81 46.52 124.08 377.25 44.71 128.39 377.25 40 309.90 42.75 216.10 360.00 51.51 84.56 378.54 2722 245.02 51.73 110.94 378.54 49.77 105.04 378.54 12015 248.81 50.15 111.84 378.54 48.23 106.08 378.54 12009 264.56 48.31 115.21 378.54 44.75 116.27 378.54 2382 282.61 44.57 125.76 378.54 42.48 119.13 378.54 40 312.81 37.98 231.37 378.54 48.23 111.55 371.18 2720 238.16 48.59 111.63 371.18 48.30 108.34 371.18 11977 244.42 48.16 109.44 371.18 47.55 112.43 371.18 12014 262.60 47.94 114.75 371.18 43.59 114.66 371.18 2386 281.20 42.56 146.68 371.18 40.00 108.70 371.18 40 312.70 29.65 240.15 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

264 Evaluación Programa Software Educativo – Informe Final

Tabla Tabla A9.2: Puntajes Pruebas SIMCE 4º Básico año 2012, según grupo socioeconómico en Mujeres

Grupo Socioeconómico Bajo Medio Bajo Medio Medio Alto Alto Bajo Medio Bajo Medio Medio Alto Alto Bajo Medio Bajo Medio Medio Alto Alto

Prueba

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

N. Alumnos 10985 30955 38283 18915 9336 10994 30939 38283 18956 9357 10594 30702 38263 18944 9352

Media 253.19 259.38 273.60 288.97 304.58 236.30 244.68 260.99 277.51 296.47 232.31 240.93 258.23 275.28 294.24

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 51.46 113.77 377.86 2624 256.64 50.48 123.16 377.25 49.79 111.05 377.25 11124 260.77 49.64 114.32 377.25 47.49 118.77 381.64 12775 274.26 47.57 119.57 377.25 44.09 110.19 377.25 2811 290.83 43.48 126.24 377.25 41.77 122.32 377.25 48 320.65 28.99 251.63 377.25 50.13 93.40 378.54 2616 243.36 49.73 106.76 378.54 47.95 101.58 378.54 11125 246.93 47.61 106.35 378.54 45.35 106.24 378.54 12775 262.20 45.41 106.24 378.54 42.45 107.84 378.54 2814 278.41 41.70 126.17 378.54 40.91 114.20 378.54 50 311.74 36.89 204.34 378.54 45.04 108.34 371.18 2613 237.05 45.34 124.83 371.18 44.66 108.88 371.18 11106 242.71 45.08 110.75 371.18 43.86 111.36 371.18 12782 258.93 44.43 111.36 371.18 41.00 129.68 371.18 2815 276.11 40.88 130.42 371.18 38.26 137.58 371.18 50 307.56 30.56 244.44 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

En las siguientes tablas A9.3, A9.4 y A9.5 se indican los resultados alcanzados según grupo socioeconómico y dependencia. Nuevamente sucede que las tendencias observadas anteriormente, aquí se repiten. Se ve que los puntajes van creciendo

a

medida que se avanza hacia la categoría Alto en la variable grupo socio-económico, donde además se observa que los puntajes promedios obtenidos son mayores en establecimientos

de

tipo

particular

pagados.

265 Evaluación Programa Software Educativo – Informe Final

Tabla A9.3: Puntajes Pruebas SIMCE 4º Básico año 2012, según grupo socioeconómico en establecimiento Municipal

Grupo Socioeconómico Bajo Medio Bajo Medio Medio Alto Alto Bajo Medio Bajo Medio Medio Alto Alto Bajo Medio Bajo Medio Medio Alto Alto

Prueba

N. Alumnos

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

10985 30955 38283 18915 9336 10994 30939 38283 18956 9357 10594 30702 38263 18944 9352

Media 253.19 259.38 273.60 288.97 304.58 236.30 244.68 260.99 277.51 296.47 232.31 240.93 258.23 275.28 294.24

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 51.46 113.77 377.86 4899 250.06 52.12 116.21 377.25 49.79 111.05 377.25 17891 252.69 51.70 110.93 377.25 47.49 118.77 381.64 10529 265.94 50.36 110.67 377.25 44.09 110.19 377.25 1008 285.29 46.07 144.34 377.25 41.77 122.32 377.25 50.13 93.40 378.54 4884 244.20 51.17 106.76 378.54 47.95 101.58 378.54 17867 246.35 49.35 106.35 378.54 45.35 106.24 378.54 10489 258.51 47.97 106.24 378.54 42.45 107.84 378.54 1003 282.90 45.10 145.60 378.54 40.91 114.20 378.54 45.04 108.34 371.18 4882 237.17 47.13 111.63 371.18 44.66 108.88 371.18 17810 241.85 46.90 109.44 371.18 43.86 111.36 371.18 10492 255.71 46.68 111.36 371.18 41.00 129.68 371.18 1002 281.09 41.65 148.42 371.18 38.26 137.58 371.18 -

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Tabla A9.4: Puntajes Pruebas SIMCE 4º Básico año 2012, según grupo socioeconómico en establecimiento P. Subvencionado

Grupo Socioeconómico Bajo Medio Bajo Medio Medio Alto Alto Bajo Medio Bajo Medio Medio Alto Alto Bajo Medio Bajo Medio Medio Alto Alto

Prueba

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

N. Alumnos 5234 19521 54032 34694 2641 5204 19524 54038 34769 2659 4968 19459 54033 34773 2655

Media 241.58 255.92 269.94 284.40 294.74 228.27 248.70 264.10 279.16 292.05 228.71 245.41 261.73 277.82 290.69

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 52.62 112.42 377.25 454 252.96 49.37 134.36 377.25 50.43 108.95 377.25 5255 258.80 49.84 119.91 377.25 49.23 110.67 377.25 14298 271.55 49.00 116.84 377.25 45.90 110.19 377.25 4184 286.46 44.95 124.08 377.25 45.02 130.77 377.25 88 315.76 36.08 216.10 377.25 50.08 93.40 378.54 454 244.24 46.20 134.87 378.54 47.78 107.09 378.54 5273 253.19 47.19 118.20 378.54 46.11 106.08 378.54 14295 266.89 45.69 112.61 378.54 43.35 107.84 378.54 4193 279.72 42.57 125.76 378.54 42.10 119.39 378.54 90 312.21 37.17 204.34 378.54 46.47 108.34 371.18 451 242.45 45.63 130.82 371.18 46.03 110.54 371.18 5273 249.51 45.58 113.83 371.18 45.26 112.43 371.18 14304 264.37 45.49 114.75 371.18 42.20 117.50 371.18 4199 277.81 41.73 130.42 371.18 40.39 130.16 371.18 90 309.84 30.10 240.15 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

266 Evaluación Programa Software Educativo – Informe Final

Tabla A9.5: Puntajes Pruebas SIMCE 4º Básico año 2012, según grupo socioeconómico en establecimiento P. Pagado

Grupo Socioeconómico Bajo Medio Bajo Medio Medio Alto Alto Bajo Medio Bajo Medio Medio Alto Alto Bajo Medio Bajo Medio Medio Alto Alto

Prueba

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

N. Alumnos 10985 30955 38283 18915 9336 10994 30939 38283 18956 9357 10594 30702 38263 18944 9352

Media 253.19 259.38 273.60 288.97 304.58 236.30 244.68 260.99 277.51 296.47 232.31 240.93 258.23 275.28 294.24

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo 51.46 113.77 377.86 49.79 111.05 377.25 47.49 118.77 381.64 44.09 110.19 377.25 41.77 122.32 377.25 50.13 93.40 378.54 47.95 101.58 378.54 45.35 106.24 378.54 42.45 107.84 378.54 40.91 114.20 378.54 45.04 108.34 371.18 44.66 108.88 371.18 43.86 111.36 371.18 41.00 129.68 371.18 38.26 137.58 371.18 -

Máximo -

Fuente: Elaboración Propia en base a SIMCE 4º 2012

En las siguientes tablas A9.6 A9.7 se expresa la información del puntaje obtenido para cada nivel de logro, según género. Donde se observa que para lenguaje, son las mujeres que, para cada nivel de logro, obtienen mayores puntajes promedios que los hombres, lo cual es consistente con la evidencia anteriormente señalada. En las pruebas de matemáticas e historia, geografía y ciencias sociales, se aprecia que a excepción de la categoría insuficiente, donde las mujeres logran mayor puntaje promedio, los hombres consiguen un puntaje promedio superior.

267 Evaluación Programa Software Educativo – Informe Final

Tabla A9.6: Puntajes Pruebas SIMCE 4º Básico año 2012, según Nivel de Aprendizaje en Hombres

Nivel de Aprendizaje Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado

Prueba

N. Alumnos

37675 Lenguaje y Comunicación 32109 40590 40473 Matemáticas 39803 30021 39231 Historia, G. Y C Sociales 37762 32524

Media 201.14 263.55 315.59 208.13 269.77 324.37 204.82 265.74 318.10

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 28.00 104.20 240.99 10887 201.01 27.89 110.67 240.99 12.30 241.00 283.99 8580 262.95 12.25 241.00 283.98 22.76 284.00 377.25 9757 313.82 22.14 284.01 377.25 27.93 84.56 244.99 11656 208.23 27.45 110.94 244.99 14.18 245.00 294.99 10494 269.34 14.20 245.00 294.99 22.03 295.00 378.54 7018 322.83 21.48 295.00 378.54 26.57 108.34 240.99 11526 205.18 26.28 109.44 240.98 14.01 241.00 289.99 10234 264.94 13.92 241.00 289.99 20.47 290.00 371.18 7377 316.83 20.06 290.00 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Tabla A9.7: Puntajes Pruebas SIMCE 4º Básico año 2012, según Nivel de Aprendizaje en Mujeres

Nivel de Aprendizaje Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado

Prueba

N. Alumnos 27833 32326 48315 40679 41749 26101 39457 41332 27066

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

Media 206.30 264.08 317.00 209.74 269.34 322.50 207.80 265.11 315.84

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 26.10 110.19 240.99 8191 206.56 25.62 114.32 240.99 12.18 241.00 283.99 9087 263.84 12.20 241.00 283.99 23.08 284.00 381.64 12104 315.72 22.28 284.01 377.25 27.30 93.40 244.99 11820 210.26 26.80 106.24 244.99 14.20 245.00 294.99 11305 268.91 14.17 245.00 294.99 21.39 295.00 378.54 6255 320.88 20.67 295.00 378.54 25.25 108.34 240.99 11737 207.64 25.18 110.75 240.99 13.90 241.00 289.99 11369 264.54 13.94 241.00 289.99 19.75 290.00 371.18 6260 315.11 19.54 290.02 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Asimismo,

esta

información

es

posible

observarla

según

dependencia

del

establecimiento en los cuadros A9.8, A9.9 y A9.10, donde la tendencia se mantiene, esto es, para una misma categoría los puntajes promedio obtenidos son mayores para los alumnos

provenientes

de

establecimientos

particular

pagado,

luego

aquellos

pertenecientes a establecimientos particular subvencionado y los menores puntajes se registran en aquellos alumnos de establecimientos municipales.

268 Evaluación Programa Software Educativo – Informe Final

Tabla A9.8: Puntajes Pruebas SIMCE 4º Básico año 2012, según Nivel de

Aprendizaje en Establecimiento Municipal

Nivel de Aprendizaje Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado

Prueba

N. Alumnos

33150 Lenguaje y Comunicación 25868 26776 40937 Matemáticas 29479 15285 40882 Historia, G. Y C Sociales 29057 14626

Media 201.13 263.03 313.41 205.45 268.37 321.20 203.72 263.86 314.66

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 27.86 104.20 240.99 12665 201.94 27.46 110.67 240.99 12.30 241.00 283.99 10336 263.04 12.23 241.00 283.98 21.76 284.00 381.64 11326 314.08 21.84 284.01 377.25 28.68 84.56 244.99 15598 206.93 27.85 106.24 244.99 14.11 245.00 294.99 11988 268.63 14.16 245.00 294.99 20.86 295.00 378.54 6657 321.68 20.93 295.00 378.54 26.58 108.34 240.99 15712 204.78 26.17 109.44 240.99 13.88 241.00 289.99 11963 264.06 13.94 241.00 289.99 19.14 290.00 371.18 6511 315.37 19.61 290.02 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Tabla A9.9: Puntajes Pruebas SIMCE 4º Básico año 2012, según Nivel de

Aprendizaje en Establecimiento P. Subvencionado

Nivel de Aprendizaje Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado

Prueba

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

N. Alumnos 30725 34920 50477 38423 46414 31357 36334 45020 34534

Media 205.34 264.12 316.16 212.12 269.80 322.89 208.87 265.86 316.44

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 26.61 108.95 240.99 6413 206.26 26.07 116.84 240.99 12.18 241.00 283.99 7331 263.93 12.21 241.00 283.99 22.81 284.00 377.25 10535 315.72 22.63 284.01 377.25 26.12 93.40 244.99 7878 213.85 25.06 112.61 244.99 14.18 245.00 294.99 9811 269.70 14.21 245.00 294.99 21.56 295.00 378.54 6616 322.15 21.31 295.00 378.54 25.02 108.34 240.99 7551 209.83 24.53 113.83 240.99 13.88 241.00 289.99 9640 265.57 13.87 241.00 289.99 19.87 290.00 371.18 7126 316.65 20.02 290.00 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

269 Evaluación Programa Software Educativo – Informe Final

Tabla A9.10: Puntajes Pruebas SIMCE 4º Básico año 2012, según Nivel de

Aprendizaje en Establecimiento P. Pagado

Nivel de Aprendizaje Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado

Prueba

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

N. Alumnos 1633 3647 11652 1792 5659 9480 1472 5017 10430

Media 210.46 266.47 323.97 220.20 273.64 329.21 215.44 270.34 322.53

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo 25.57 119.96 240.98 12.02 241.08 283.99 24.44 284.00 377.25 22.90 114.20 244.99 13.86 245.00 294.99 22.83 295.00 378.54 23.01 108.70 240.98 13.53 241.00 289.99 21.59 290.00 371.18 -

Máximo -

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Finalmente es interesante mirar qué sucede para el nivel de logro según grupo socioeconómico, por esta razón se presenta en las tablas A9.11, A9.12, A9.13, A9.14 y A9.15, estadística descriptiva de los puntajes en lenguaje, matemáticas e historia,

geografía y ciencias sociales, para cada uno de los estándares de logro definidos así como para cada categoría de grupo socioeconómico. Es así, que es posible reportar, según la información que se indica en los cuadros señalados, que los puntajes promedio obtenidos por los alumnos aumenta en la medida que se avanza a un grupo socioeconómico mayor, lo que significa que los menores puntajes promedios en cada nivel de logro se obtienen en el grupo socioeconómico Bajo, mientras que los mayores puntajes promedio en cada categoría se registran en el grupo socioeconómico Alto.

270 Evaluación Programa Software Educativo – Informe Final

Tabla A9.11: Puntajes Pruebas SIMCE 4º Básico año 2012, según Nivel de Aprendizaje en GSE Bajo

Nivel de Aprendizaje Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado

Prueba

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

N. Alumnos 10289 6605 5953 12860 6898 3044 12691 6660 2621

Media 198.24 262.41 311.33 200.54 267.68 319.89 200.59 262.83 313.40

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 28.94 104.20 240.96 2251 199.85 27.86 116.21 240.96 12.41 241.04 283.99 1578 262.72 12.28 241.08 283.95 20.74 284.00 377.86 1524 311.97 20.77 284.02 377.25 30.34 84.56 244.99 2728 203.80 28.87 106.76 244.90 14.07 245.00 294.93 1729 268.56 14.18 245.00 294.93 20.36 295.02 378.54 881 321.53 20.91 295.09 378.54 27.54 108.34 240.99 2905 202.77 26.74 111.63 240.97 13.71 241.00 289.98 1682 263.49 13.75 241.05 289.98 18.40 290.02 371.18 746 314.98 19.26 290.02 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Tabla A9.12: Puntajes Pruebas SIMCE 4º Básico año 2012, según Nivel de Aprendizaje en GSE Medio Bajo

Nivel de Aprendizaje Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado

Prueba

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

N. Alumnos 25782 19484 19045 31732 22001 10544 31773 21867 10108

Media 201.55 262.82 312.73 206.01 268.03 320.38 204.03 263.64 313.83

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 27.63 108.95 240.99 9119 201.99 27.50 110.93 240.99 12.25 241.00 283.99 6994 262.56 12.23 241.00 283.98 21.51 284.00 377.25 7033 313.19 21.55 284.01 377.25 28.21 101.58 244.99 11100 206.77 27.79 106.35 244.99 14.12 245.00 294.99 7968 268.07 14.16 245.00 294.99 20.47 295.00 378.54 4072 320.60 20.63 295.00 378.54 26.53 108.34 240.99 11174 204.60 26.30 109.44 240.99 13.89 241.00 289.99 8042 263.70 13.90 241.00 289.99 18.89 290.00 371.18 3867 314.46 19.16 290.02 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

271 Evaluación Programa Software Educativo – Informe Final

Tabla A9.13: Puntajes Pruebas SIMCE 4º Básico año 2012, según Nivel de Aprendizaje en GSE Medio

Nivel de Aprendizaje Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado

Prueba

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

N. Alumnos 21201 23397 30680 26617 30279 18352 25433 29781 19961

Media 205.32 263.97 315.15 212.59 269.37 322.20 209.15 265.25 315.67

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 26.37 110.67 240.99 6872 205.41 26.26 110.67 240.99 12.15 241.00 283.99 7610 264.04 12.23 241.00 283.99 22.40 284.00 381.64 10345 315.30 22.40 284.01 377.25 25.48 106.08 244.99 8564 212.84 25.47 106.24 244.99 14.13 245.00 294.99 9902 269.51 14.18 245.00 294.99 21.33 295.00 378.54 6318 322.12 21.10 295.00 378.54 24.50 111.36 240.99 8209 209.01 24.61 111.36 240.99 13.87 241.00 289.99 9727 265.13 13.89 241.00 289.99 19.76 290.00 371.18 6860 316.31 19.96 290.00 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

Tabla A9.14: Puntajes Pruebas SIMCE 4º Básico año 2012, según Nivel de Aprendizaje en GSE Medio Alto

Nivel de Aprendizaje Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado

Prueba

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

N. Alumnos 6392 10785 20063 7958 15842 13512 7150 14959 15195

Media 209.89 265.11 318.25 218.81 271.19 324.16 214.18 267.59 317.59

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 24.76 110.19 240.97 832 211.59 23.94 124.08 240.96 12.15 241.00 283.99 1473 264.92 11.87 241.02 283.97 23.36 284.00 377.25 2887 318.62 23.36 284.05 377.25 22.52 107.84 244.99 1082 220.02 21.67 125.76 244.97 14.12 245.00 294.99 2171 271.49 13.96 245.01 294.93 21.90 295.00 378.54 1943 323.80 21.96 295.00 378.54 22.36 114.66 240.99 974 216.24 21.07 130.42 240.95 13.73 241.00 289.99 2127 267.71 13.82 241.00 289.99 19.88 290.00 371.18 2100 318.17 20.59 290.03 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

272 Evaluación Programa Software Educativo – Informe Final

Tabla A9.15: Puntajes Pruebas SIMCE 4º Básico año 2012, según Nivel de Aprendizaje en GSE Alto

Nivel de Aprendizaje Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado Insuficiente Elemental Adecuado

Prueba

Lenguaje y Comunicación

Matemáticas

Historia, G. Y C Sociales

N. Alumnos 1844 4164 13164 1985 6532 10670 1641 5827 11705

Media 211.27 266.44 323.79 221.51 273.50 329.01 216.71 270.26 322.41

SIMCE 4º Básico año 2012 Total Participantes del Programa Puntaje Puntaje N. Alumnos D. Estándar Mínimo Máximo Media D. Estándar Mínimo Máximo 24.90 122.32 240.98 4 225.6 7.23412 216.1 232.89 11.97 241.08 283.99 12 263.85 12.700317 241.36 280.74 24.43 284.00 377.25 72 329.42 21.574948 284.54 377.25 21.63 114.20 244.97 2 217.86 19.113096 204.34 231.37 13.84 245.00 294.99 29 275.31 13.441774 253.05 293.87 22.81 295.00 378.54 59 333.55 23.987726 297.68 378.54 22.01 108.70 240.98 1 240.15 240.15 240.15 13.50 241.00 289.99 25 272.85 11.246671 244.44 287.85 21.57 290.00 371.18 64 325.38 19.134715 294.17 371.18

Fuente: Elaboración Propia en base a SIMCE 4º 2012

273 Evaluación Programa Software Educativo – Informe Final

Anexo 10. Resultados de Uso de las Plataformas Al observar los gráficos del total de uso según meses, en los gráficos A10.1, A10.2, A10.3 y A10.5 se aprecia el mismo escenario. Sin embargo, esto es transversal a cualquier plataforma, ya que los gráficos A10.1.1, A10.1.2, A10.1.3 y A10.1.4 reportan lo sucedido con las plataformas en el mes de julio, los gráficos A10.2.1, A10.2.2, A10.2.3 y A10.2.4 para agosto, las gráficos A10.3.1, A10.3.2, A10.3.3 y A10.3.4. para septiembre y finalmente en los gráficos A10.4.1, A10.4.2, A10.4.3 y A10.4.4 para las plataformas en el mes de octubre, donde se replica la situación en todos estos reportes.

Gráfico A10.1: Histograma del uso de las plataformas en Julio

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

274 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.1.1: Histograma del uso de Little Bridge en Julio

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

275 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.1.2: Histograma del uso de Arquimed en Julio

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

276 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.1.3: Histograma del uso de Galileo en Julio

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

277 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.1.4: Histograma del uso de Mi Clase en Julio

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

278 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.2: Histograma del uso de las plataformas en Agosto

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

279 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.2.1: Histograma del uso de la Plataforma Little Bridge en Agosto

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

280 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.2.2: Histograma del uso de la Plataforma Arquimed en Agosto

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

281 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.2.3: Histograma del uso de la Plataforma Galileo en Agosto

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

282 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.2.4: Histograma del uso de la Plataforma Mi Clase en Agosto

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

283 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.3: Histograma del uso de las plataformas en Septiembre

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

284 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.3.1: Histograma del uso de la Plataforma Little Bridge en Septiembre

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

285 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.3.2: Histograma del uso de la Plataforma Arquimed en Septiembre

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

286 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.3.3: Histograma del uso de la Plataforma Galileo en Septiembre

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

287 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.3.4: Histograma del uso de la Plataforma Mi Clase en Septiembre

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

288 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.4: Histograma del uso de las plataformas en Octubre

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

289 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.4.1: Histograma del uso de la Plataforma Little Bridge en Octubre

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

290 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.4.2: Histograma del uso de la Plataforma Arquimed en Octubre

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

291 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.4.3: Histograma del uso de la Plataforma Galileo en Octubre

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

292 Evaluación Programa Software Educativo – Informe Final

Gráfico A10.4.4: Histograma del uso de la Plataforma Mi Clase en Octubre

Fuente: Elaboración Propia en referencia a base de uso de plataforma-Enlaces

293 Evaluación Programa Software Educativo – Informe Final

Anexo 11. Distribución Acumulada de Puntaje SIMCE A continuación se presenta la distribución acumulada de los participantes y no participantes del programa, según género, para cada prueba.

Gráfico 8: Distribución Acumulada Prueba Lenguaje para Hombres

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

294 Evaluación Programa Software Educativo – Informe Final

Gráfico 9: Distribución Acumulada Prueba Lenguaje para Mujeres

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

Gráfico 10: Distribución Acumulada Prueba Matemáticas para Hombres

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

295 Evaluación Programa Software Educativo – Informe Final

Gráfico 11: Distribución Acumulada Prueba Matemáticas para Mujeres

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlace

Gráfico 12: Distribución Acumulada Prueba Historia, Geografía y Ciencias Sociales para Hombres

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

296 Evaluación Programa Software Educativo – Informe Final

Gráfico 13: Distribución Acumulada Prueba Historia, Geografía y Ciencias Sociales para Mujeres

Fuente: Elaboración Propia en referencia a base a SIMCE y uso de plataforma-Enlaces

297 Evaluación Programa Software Educativo – Informe Final

Anexo 12. Bases de Datos Encuesta Web y Tablet

298 Evaluación Programa Software Educativo – Informe Final

Anexo 13. Libro de códigos

299 Evaluación Programa Software Educativo – Informe Final

300

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.