miércoles, 28 de mayo de 2008

Experiencia personal


Como es la última entrada evaluable, aunque pienso seguir con el blog, me gustaría compartir con vosotros, lo que ha supuesto para mí haber estudiado educación social. Me refiero, lógicamente, desde el aspecto del uso de la nuevas tecnologías.

Cuando me matriculé no tenía ordenador y tenía en mente comprarlo, pensando en mi hijo. Pero mira por donde, empiezo a ver como todo el mundo manejaba el ordenador, el correo electrónico para mandarse apuntes y trabajos. Acudí a Jornadas y congresos sobre alfabetización digital, sofware libre, telecentros o NNCC. La verdad es que para mi era algo novedoso y era como descubrir un mundo totalmente nuevo, del que solamente había oido hablar, pero no de la forma que lo estaba oyendo en estos congresos.

Me asombraba ver, en mis compañeras y compañeros, el dominio que tenían presentando los trabajos en Power Point.

Aluciné en Badajoz, yo que no había escuchado hablar de Soware, escuchando a Richard Stalman decir, que había algo que se llamaba Soware libre. La primera palabra no sabía qué era, pero la segunda sí. Si era libre ya era bueno, pero además quería decir que había otro que no era libre. Todo eso lo he descubierto en estos tres años.

Cuando terminé primero, me compré el ordenador y con la ayuda inestimable de mi hijo Javier, de 12 años, me he puesto un poco al día (dentro de lo que cabe) con las nuevas teclologías, puesto que es un mundo que se mueve a una velocidad de vértigo, aprendes algo y si te descuidas en unos dias ya esta obsoleto, te exige mucho para estar minimamente al día.

Pero el remate ha sido la asignatura de “NN.TT. aplicadas a la educación”. Me parece una asignatura imprescindible en los planes de estudio, (que conste que no es peloteo por si lo lee Jesús). No saber manejarse con las nuevas tecnologías será dentro de poquísimo tiempo signo de analfabetismo, si no lo es ya.Será una brecha como la que hay entre el que tiene estudios y el que no los tiene.Supondrá una herramienta imprescindible para el tener mejores perspectivas de trabajo y de integración social. Dará a los ciudadanos independencia para ir por la vida.

Yo estoy disfrutando con internet, como un niño con bicicleta nueva. Me encanta tener acceso a noticias, documentos, información...

Dsifruto con los e-mail, con la facilidad que te da para compartir información,etc.

Con esta asignatura, he aprendido mucho, pero me está costando bastante asimilarla, ¡pero ahí estoy!.

Creo que si no hubiera hecho Educación Social, las NN.TT. Seguirían siendo para mi bastante desconocidas. Me alegro de haberlo hecho.

Solamenteme he centrado,el comentario, en mi experiencia con las TIC, no he dicho nada de mi experiencia en cuanto a conocimientos adquiridos y la convivencia con ese grupo, maravilloso, que es con el que he estado estos tres años, esto ahora no viene al caso.

domingo, 18 de mayo de 2008

Breve historia de GNU/Linux

Richard Stallman y el proyecto GNU

En los inicios de la informática todo el software era libre. Los ordenadores eran máquinas pesadas y caras que sólo se podían encontrar en las Universidades y centros de investigación. Los programadores mantenían su código abierto y colaboraban entre sí a través de Internet, construida toda ella con software libre. En aquellos años el sistema de referencia era UNIX propiedad de ATT, cuyo código era distribuido libremente a empresas y universidades por un precio simbólico. ATT no podía explotar comercialmente UNIX™ debido a su calidad de monopolio. Pero muy pronto este sistema de cooperación se vería amenazado. En el 1984 la ley antimonopolio estadounidense obligó a la compañía a dividirse. A partir de ese momento la restricción impuesta dejo de ser efectiva, UNIX comenzó a comercializarse y se cerró su código. Al mismo tiempo un nuevo mercado comenzaba a tomar forma: la informática doméstica. Los ordenadores se abarataron, se hicieron más ligeros y comenzaron a invadir los hogares. El software comenzó a ser comercializado y las empresas obligaron a sus programadores a firmar acuerdos de no revelación, por los que se comprometían a cerrar el código, y los programas comenzaron a venderse sin facilitar su código fuente. Esto generó una reacción de rechazo que se hizo patente cuando Richard Matthew Stallman (http://www.stallman.org/) en 1984 decidió iniciar el proyecto de crear un sistema operativo similar a UNIX™, pero con una licencia que permitiese el acceso al código fuente, además de la libre distribución y copia. Para ello hubo de abandonar el laboratorio de Inteligencia Artificial del MIT (Instituto Tecnológico de Massachusetts) en el que había trabajado hasta entonces.

Siguiendo una costumbre muy popular entre los hackers informáticos de la época llamó al proyecto GNU (http://www.gnu.org), acrónimo recursivo que significa "GNU is Not Unix", y cuyo emblema sería un ñú. Para proteger al nuevo sistema se creó la licencia GNU/GPL (Licencia Pública General GNU) y el copyleft (opuesto al copyright), que garantiza la libertad de uso, copia y modificación, y obliga a

distribuir el código fuente junto con los binarios.

Stallman cuenta así su propia decisión:

"La elección fácil era unirme al mundo del software propietario, firmar los acuerdos de no revelar y prometer que no iría en ayuda de mi amigo hacker. Es muy probable que desarrollara software que se entregaría bajo acuerdos de no revelar y de esa manera incrementara también las presiones sobre otra gente para que traicionaran a sus compañeros. Podría haber hecho dinero de esta manera, y tal vez me hubiese divertido escribiendo código. Pero sabía que al final de mi carrera al mirar atrás a los años construyendo paredes para dividir a la gente, sentiría que usé mi vida para empeorar el mundo". (http://www.gnu.org/gnu/thegnuproject.es.html)

El proyecto GNU tuvo una gran acogida. Cientos de programadores de todo el mundo se identificaron con su manifiesto fundacional (http://www.gnu.org/gnu/manifesto.es.html) y comenzaron a colaborar y producir componentes del futuro sistema operativo libre. Stallman comenzó a construir gcc, el Compilador GNU para el lenguaje C, verdadera pieza clave en el desarrollo del sistema. En la actualidad gcc, conocido ahora como Colección de Compiladores GNU, ha ampliado su funcionalidad y es capaz de trabajar con 7 lenguajes de programación diferentes.

En 1985 Stallman creó la Free Software Fundation (FSF) (http://www.fsf.org) para dar cobertura legal al proyecto y canalizar las ayudas económicas. En la actualidad la FSF promueve el desarrollo y uso del software libre, particularmente del sistema operativo GNU, y defiende los derechos de los usuarios a copiar, estudiar, modificar y redistribuir los programas informáticos.

EN 1990 el sistema GNU estaba casi completo pero faltaba un componente esencial: el núcleo (kernel). Sin núcleo no puede haber sistema operativo y aunque se había trabajado en GNU Hurd no se habían conseguido resultados efectivos.

Linus Torvalds y el kernel Linux

El primer kernel libre y operativo no llegaría hasta la década de los 90.

En 1991 Linus Torvalds un estudiante finlandés de 21 años desarrolló un núcleo compatible con Unix y lo denominó Linux.

Todo comenzó como un proyecto fin de carrera: se trataba de programar un núcleo para sistema operativo inspirado en Minix, un pequeño Unix desarrollado por el profesor Andrew Tanenbaum.

"Estoy haciendo un sistema operativo libre (es sólo un hobby, no será grande ni profesional como GNU) pero funciona en 386(486) AT clones, lo he estado cocinando desde abril y está quedando listo. Quisiera alguna retroalimentación de las cosas que a ustedes les gustan y no les gustan de MINIX, ..."

Este sencillo mensaje de Torvalds en un grupo de noticias motivó una avalancha de colaboradores y los frutos no se harían esperar. En enero de 1992 se publicó la versión 0.02, y poco tiempo después, en marzo de 1994 se liberó la versión 1.0.0, ya lista para sistemas en producción. A partir de esta versión al combinar Linux con el sistema no completo GNU resultó un sistema operativo libre completo cuyo nombre correcto es GNU/Linux, y no simplemente Linux por más que esta denominación abreviada se haya popularizado. De esta manera se reconoce explícitamente que el sistema no es sólo el núcleo, sino muchas otra piezas de software que se escribieron con anterioridad sin las que hubiera sido imposible tener algo funcional e incluso construirlo.

En 1996 vería la luz el kernel 2.0.0 ya asociado con la mascota del pingüino (llamada Tux). En la actualidad el kernel Linux (http://www.linux.org) va por la versión 2.6.17, está disponible para un gran variedad de arquitecturas y goza de un gran prestigio en la comunidad informática como fiable, sólido y seguro.

El número de versión asociado al núcleo tiene un sentido muy particular ya que está ligado a su desarrollo. En cada momento tenemos siempre dos versiones del núcleo: versión de producción y versión de desarrollo.

La versión de producción es la versión estable en el momento. Esta versión es la que se debería utilizar para un uso normal del sistema. Por su parte la versión de desarrollo es experimental y es la que usan los programadores para crear y verificar nuevas características. Estos núcleos sueles ser inestables y no deberían ser usadas en equipos en producción. Las versiones del kernel se numeran con 3 cifras de la siguiente manera: XX.YY.ZZ, donde: XX: indica la serie principal del kernel. Hasta el momento sólo existe la serie 2. Este número cambia cuando la manera de funcionamiento del kernel ha sufrido una modificación importante. YY: Indica si la versión es de desarrollo o producción. Un número impar indica que es de desarrollo, uno par, que es de producción. ZZ: Indica revisiones menores dentro de una versión en las que se han corregido fallos de programación.

Ejemplo: 2.4.0. Kernel de la serie 2 (XX=2), versión de producción 4 ( YY=4 ya que es par), primera versión del 2.4 (ZZ=0)

Ejemplo: 2.6.17. Kernel de la serie 2, versión 6, en la que se han corregidos errores de programación de la versión 2.6.0

El kernel incluyendo su código fuente se puede conseguir en http://www.kernel.org (The Linux Kernel Archives).


sábado, 10 de mayo de 2008

Casi tengo 18

Acabo de leer una iniciativa que me parece muy interesante. Es un proyecto para llevarlo a cabo con adolescentes, donde las TIC, tienen un papel muy importante, o mejor dicho, imprescindible, pues sin ellas no se podría realizar este proyecto. Aquí lo teneis:

CASI TENGO 18 es un programa de acción cultural dirigido a los/as adolescentes, a través del uso de las TIC’s (tecnologías de la información y el conocimiento) y de estrategias pedagógicas de creatividad y mediación cultural, que a través de distintos soportes y actividades, trata de dar la palabra a los/as jóvenes, invitándoles a participar como ciudadanos/as activos/as en la definición del mundo en el que viven: su imaginario, sus valores, sus intereses y preocupaciones, etc.

Se trata de un proyecto basado en la articulación de una comunidad virtual de blogs y en propuestas interdisciplinares de participación e interacción, dirigido a adolescentes de entre más o menos 14 y 17 años, haciendo hincapié en los lenguajes, medios y dinámicas más afines a los/as adolescentes de hoy en día y en la creación de un imaginario propio, teniendo en cuenta el predominio del audiovisual y las TIC’s, pero sin olvidarnos del papel principal de las relaciones interpersonales “reales”.

Los objetivos principales de CASI TENGO 18 son:

• Incentivar entre los/as jóvenes valores como la participación, la creatividad o la conciencia de ciudadanía.

• Establecer canales de intermediación entre los/as jóvenes y diversos agentes sociales (administración, medios de comunicación, etc).

• Favorecer un uso constructivo de las TIC’s de un modo horizontal, avanzando hacia una sociedad digitalmente formada.

• Estudio de tipologías e intereses de los/as jóvenes actuales.

martes, 6 de mayo de 2008

sofware libre

En la clase de ayer, Jesús, nos estuvo explicando, qué es y en qué consiste el sofware libre. Me acordé de La Conferencia internacional de Sofware Libre que se celebró en Badajoz en 2006 y he buscado unos apuntes que tomé en la misma y aunque es repetir lo que se ha dicho en clase, pero lo quiero poner en el blog, por la sencillez de las palabras con que se explicaba Richard Stalman y el entonces presidente de la comunidad autónoma Juan Carlos Rodriguez Ibarra.

Solamente son unas breves notas de la conferencia inaugural:

En la inauguración oficial de la Conferencia, el Presidente de la comunidad, Juan Carlos Rodríguez Ibarra, expresó muy gráficamente la importancia que tiene el Software Libre en la Nueva Sociedad de la Información, en la Nueva Sociedad del Conocimiento. El Presidente se consideraba “emigrante” hacia la nueva sociedad. En esta sociedad debemos abandonar antiguos métodos de enseñanza y “zambullirnos” en las oportunidades que nos ofrecen las TIC.

Apuntó también que porque se llame “libre” y sea gratuito no quiere decir que sea “de los pobres” sino de los “listos”, porque al ser un conocimiento compartido, es un conocimiento más rico, más amplio, más universal.

Por la tarde, el esperado Richard Stallman, presidente de la Free Software Foundation, nos deleitó con su conferencia, fue un verdadero placer escucharle y ver sus “numeritos” en el escenario.

Empezó explicando, muy clarito, qué es el Software Libre y articuló su intervención en cuatro puntos, llamados por él “cuatro libertades”.

Libertad O. Ejecutar. Gestión digital de las restricciones. Se trata de tener acceso al control del programa en todos sus aspectos. Es algo más que hacer o deshacer lo que el desarrollador ya ha decidido. Es tener acceso al código fuente, esto es fundamental.

Libertad 1. Programar. Código Fuente. Se trata de tener capacidad de acceso al Software Libre y por lo tanto de programar tras la modificación del código fuente.

Libertad 2. Distribuir. Se pueden distribuir cuantas copias quieras, puedes ayudar así a tu vecino, a tu amigo, etc.

Libertad 3. Compartir. Libertad de ayudar a tu comunidad ofreciendo los cambios que has realizado en el código fuente. Es decir haces públicas las mejoras que tú has realizado y haces partícipe de esas mejoras a toda la sociedad.

La suma de las libertades (0+1+2+3) es lo que él denominaba DEMOCRACIA, LIBERTAD. Con estas libertades una persona escoge la herramienta que quiere utilizar y cómo la quiere utilizar. Con el Software Propietario a la persona le dicen la herramienta que debe utilizar y cómo la tiene que utilizar.

Llegó a teorizar sobre el inmenso poder que tiene el dueño del S.P., hasta qué punto puede llegara controlar a los usuarios de su Software.

El Software Libre nos lanza un reto para la imaginación, donde todos tenemos disponibles los elementos necesarios para la construcción de un modelo de desarrollo libre e independiente, sin otro límite que la propia creatividad y la capacidad de innovación de cada persona que, sumada a la capacidad de las demás personas, contribuye a ampliar la libertad, la igualdad de oportunidades y de progreso de manera universal.

Cuando le pareció que la audiencia estaba un poco cansada nos montó el “numerito” de vestirse de santón. Pero una vez relajados por las risas y centrada nuestra atención en la conferencia prosiguió hablando de las dos objeciones que se le ponen al SL.

La primera objeción es desde el punto de vista del empleo. Dicen que crea poco empleo. El, ponía un ejemplo muy bueno, y hacia referencia a los coches de hace unos años, cualquier taller te lo podía reparar. Los coches modernos, no, tienen que ir a su concesionario porque sólo ellos tienen las herramientas que se necesitan. La aplicación que hacía del ejemplo es que en el SL cualquier desarrollador te podía solucionar el problema, en el Software Propietario, no, allí hay lo que hay.

La segunda objeción era referente a la educación. A esta respondía que desde el punto de vista educativo el SL es más ventajoso que el SP, pues necesita de más imaginación y más creatividad. Desde pequeño el niño se acostumbra a trabajar sus propios programas, y no los que se le dan hechos. Se acostumbra desde pequeño a ser el constructor de su entorno y no a vivir de un entorno que se lo dan construido. Es el protagonista de su educación.

sábado, 3 de mayo de 2008

Las nuevas tecnologías y la formación contínua


El mundo laboral ha ido evolucionando, dejando atrás la organización tradicional caracterizada por un sin número de tareas repetitivas, trabajos en línea, toma de decisiones centralizada, etc. La actual situación de globalización de la economía requiere de empresas dinámicas y con altos estándares de calidad que puedan adaptarse fácilmente a un entorno cambiante y exigente, en el que va a ser fundamental. la capacidad para adaptarse al mercado y dar respuesta a las nuevas demandas de atención o satisfacción al cliente de forma individualizada y personalizada, Esta nueva sociedad esta generando, así mismo, como consecuencia de todo lo anterior, un nuevo concepto de perfiles profesionales y de competencias y cualificaciones que se hallan caracterizadas, entre otros aspectos, precisamente por esa capacidad de adaptación.

Ante esta nueva sociedad de mercado global, la formación continua, en concreto, debe responder a los retos que demandan estos cambios, no sólo a través del impulso de una nueva cultura de la formación a lo largo de toda la vida, sino también de nuevas maneras de organizar la formación, más flexibles y abiertas, que permitan esa adaptación de la formación continua, y del conjunto de los tres subsistemas de la formación profesional en general, a las demandas de los nuevos modelos organizacionales, en el contexto de la sociedad de la información y del conocimiento.

Es preciso, pués, un planteamiento más amplio de la utilización de las nuevas tecnologías de la información y la comunicación en la formación continua, más allá de la consideración de meros instrumentos y recursos o medios didácticos, sino desde una perspectiva totalmente innovadora. Las aplicaciones de estas nuevas tecnologías, sobre todo, Internet, no sólo está generando en nuestra sociedad una nueva cultura sino que además está incidiendo en la conceptualización y la planificación de la formación continua.

En la formación continua se están planteando, por tanto, importantes cambios. Entre éstos está la necesidad de mayor nivel de formación para poder acceder a este mundo de Internet y sobre todo al mundo de la formación. Para ello la formación inicial deberá cambiar sus estructuras y esquemas de funcionamiento para responder a nuevos perfiles profesionales y personales que se demandan y para que facilite la integración de los trabajadores y trabajadoras en la sociedad del conocimiento en todas sus dimensiones: laboral, cultural y de ocio, y de participación ciudadana.

No obstante en relación a la transferencia de las nuevas tecnologías a la formación existe una barrera real de carácter cultural y generacional respecto a su utilización por parte de las personas que se van alejando de los 40 años, y que cada vez tienen más dificultades para seguir el ritmo de esta evolución y que deberían ser una de las prioridades de la formación continua en las nuevas tecnologías.

Así mismo, uno de los retos de la formación continua, en relación a las posibilidades que ofrecen las nuevas tecnologías, es conseguir que las ofertas formativas respondan realmente a las demandas de formación actuales y futuras y que permitan a su vez acercar las ofertas a las características y necesidades de los destinatarios allí donde desarrollen su actividad profesional. Las nuevas tecnologías deben ser, por tanto, capaces de generar flujos de participación y comunicación suficientes para que los trabajadores y trabajadoras, en especial de las Pymes, como usuarios directos de la formación continua, puedan participar durante el desarrollo de todo el proceso de planificación y ejecución de la oferta formativa, sobre todo, en la toma de decisiones.

Otro reto que debe afrontarse desde las nuevas tecnologías de la información y la comunicación tiene que ver con la forma actual de desarrollar las planificación de la formación continua en forma de acciones formativas y cursos de reciclaje discontinuos y aislados, atendiendo más bien a necesidades y peticiones coyunturales, muchas veces sin apenas continuidad y rigor sistemático en su configuración.

En este sentido las nuevas tecnologías de la información y la comunicación deberían ser un instrumento eficaz para elaborar la planificación de la oferta formativa configurada ésta por itinerarios personalizados de tres tipos: horizontal, vertical y diagonal, que permitan conjugar el desarrollo profesional y personal de los trabajadores y trabajadoras.

Igualmente las nuevas tecnologías de la información y la comunicación deben posibilitar estructuras descentralizadas, abiertas y flexibles para el desarrollo y gestión de estas ofertas formativas permitiendo la adaptación rápida a los cambios y a las diferentes características y necesidades de los grupos destinatarios, a fin de que puedan responder con la mayor celeridad a los requerimientos de la innovación tecnológica en los procesos y/o los productos.

En consecuencia, las necesidades actuales que se derivan de la aplicación de las nuevas tecnologías a la formación continua hacen preciso que desde las administraciones públicas, dejando de lado retóricas vacías y marketing político, y con la necesaria participación de los agentes sociales y económicos, se cree y favorezca el contexto y las condiciones, a través del correspondiente esfuerzo financiero, que faciliten estructuras y recursos humanos que potencien la investigación, el desarrollo y la aplicación de las nuevas tecnologías a todos los momentos de la formación continua con el objetivo de mejorar sus resultados y su impacto.