El software

Al conjunto de instrucciones que nos permiten realizar una determinada función en el computador le denominamos software, básicamente nos referimos a lo que comúnmente conocemos como programas, sin embargo esto que parece tan simplista tiene una importancia mayor. ´pues el hardware sin un juego de instrucciones simplemente no es capaz de hacer nada, ya lo decíamos en la lección anterior, el computador como ha sido llamado por algunos es hasta el momento una maquina boba en el sentido de que hace maravillas, pero esas maravillas deben ser programadas por alguien, es decir detrás de cada programa o software hay una persona o empresa que escribió esas ordenes, para eso entonces se vale de una serie de lenguajes que hacen que la maquina le entienda y por lo mismo ejecute el programa. Como ven este mundo del software es bien interesante de comprender y mas que eso, entrarnos un poco en este mundo para que de alguna forma empecemos a generar nuestros propios programas para cosas particulares que necesitemos, así que entrémonos en este mundo para comprender cómo se hace, qué eso del software que administra el computador (sistema Operativo SO), qué significa software de propiedad y el software libre.

¿Qué es el software?

El software es una producción inmaterial del cerebro humano y tal vez una de las estructuras más complicadas que la humanidad conoce. De hecho, los expertos en computación aún no entienden del todo cómo funciona, su comportamiento, sus paradojas y sus límites.1 Básicamente, el software es un plan de funcionamiento para un tipo especial de máquina, una máquina “virtual” o “abstracta”. Una vez escrito mediante algún lenguaje de programación, el software se hace funcionar en ordenadores, que temporalmente se convierten en esa máquina para la que el programa sirve de plan. El software permite poner en relación al ser humano y a la máquina y también a las máquinas entre sí. Sin ese conjunto de instrucciones programadas, los ordenadores serían objetos inertes, como cajas de zapatos, sin capacidad siquiera para mostrar algo en la pantalla.

Los ordenadores sólo procesan lenguaje binario,(1y 0 ) pero para las personas este no es un modo válido de comunicarse (salvo a nivel sináptico :-). Si bien en los tiempos heroicos de los primeros ordenadores no les quedaba otro remedio que hacerlo, los programadores hace mucho que no escriben su código en lenguaje binario (denominado técnicamente “código-máquina”), pues es terriblemente tedioso, improductivo y muy sujeto a errores. Hace tiempo que los programadores escriben las instrucciones que ha de ejecutar el procesador de la máquina mediante lenguajes formales, llamados “de alto nivel”, bastante cercanos al inglés, si bien con rígidas reglas sintácticas que lo asemejan a los lenguajes lógico-formales. Esto facilita enormemente la tarea de escribir programas pero, para que esas instrucciones sean comprensibles para el procesador, deben ser convertidas antes a código-máquina. Esa conversión se realiza cómodamente con programas especiales, llamados compiladores. A lo que escribe el programador se le denomina “código-fuente”. Al resultado de la “conversión” (compilación) en lenguaje-máquina, se le denomina “código-objeto”, “binarios” o “ficheros ejecutables”. En principio, al usuario común sólo le importa este último nivel, los “binarios”, pero conviene tener clara la distinción entre fuentes y binarios pues es clave para entender el empeño de los partidarios del software libre en disponer de las fuentes. [1]

El término «software» fue usado por primera vez en este sentido por John W. Tukey en 1957. En la ingeniería de software y las ciencias de la computación, el software es toda la información procesada por los sistemas informáticos: programas y datos.

El concepto de leer diferentes secuencias de instrucciones (programa) desde la memoria de un dispositivo para controlar los cálculos fue introducido por Charles Babbage como parte de su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por Alan Turing en su ensayo de 1936, «Los números computables», con una aplicación al problema de decisión. [2]

Clasificación del software

Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se puede clasificar al software en tres grandes tipos:

  • Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles de la computadora en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, herramientas y utilidades de apoyo que permiten su mantenimiento. Incluye entre otros:
    • Sistemas operativos
    • Controladores de dispositivos
    • Herramientas de diagnóstico
    • Herramientas de Corrección y Optimización
    • Servidores
    • Utilidades
  • Software de programación: Es el conjunto de herramientas que permiten al programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluye entre otros:
    • Editores de texto
    • Compiladores
    • Intérpretes
    • Enlazadores
    • Depuradores
    • Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno visual, de forma tal que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).
  • Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre otros:
    • Aplicaciones para Control de sistemas y automatización industrial
    • Aplicaciones ofimáticas
    • Software educativo
    • Software empresarial
    • Bases de datos
    • Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)
    • Videojuegos
    • Software médico
    • Software de Cálculo Numérico y simbólico.
    • Software de Diseño Asistido (CAD)
    • Software de Control Numérico (CAM) [2]

Con todo lo anterior te has preguntado alguna vez, cómo hacen los analistas de sistemas para crear un programa? veamos un poco este proceso.

¿Cómo se crea un Software?

El proceso de ingeniería de software se define como "un conjunto de etapas parcialmente ordenadas con la intención de logra un objetivo, en este caso, la obtención de un producto de software de calidad" [Jacobson 1998].El proceso de desarrollo de software "es aquel en que las necesidades del usuario son traducidas en requerimientos de software, estos requerimientos transformados en diseño y el diseño implementado en código, el código es probado, documentado y certificado para su uso operativo". Concretamente "define quién está haciendo qué, cuándo hacerlo y cómo alcanzar un cierto objetivo" [Jacobson 1998].

El proceso de desarrollo de software requiere por un lado un conjunto de conceptos, una metodología y un lenguaje propio. A este proceso también se le llama el ciclo de vida del software que comprende cuatro grandes fases: concepción, elaboración, construcción y transición. La concepción define le alcance del proyecto y desarrolla un caso de negocio. La elaboración define un plan del proyecto, especifica las características y fundamenta la arquitectura. La construcción crea el producto y la transición transfiere el producto a los usuarios. [3]

Resumiendo algunas de estas etapas encontramos:

1.-Algoritmo: Es crear el proceso o serie de pasos que va a usar tu programa es decir definir que operaciones son las que vas a realizar para que tu programa haga lo que tu quieres

2.-Diagrama de flujo: Se trata de crear un diagrama el cual ayuda para saber que orden van a seguir los pasos del programa y no confundirte a la hora de programar

3.-Pseudocodigo: Es escribir el programa en una forma tal que describa las funciones que se van a usar sin estar escrita en un codigo en particular y pueda ser usada como guia por cualquier programador para hacer la codificacion es decir escribir el programa en un lenguaje de programacion definido

4.-Codificacion: Es escribir el programa ya en forma en el lenguaje de tu eleccion por ejemplo C

5.-Pruebas: Se trata de realizar pruebas tratando de cubrir todas las posibilidades de tu programa introduciendo diferentes variables para comprobar que el programa no tiene errores y da los resultados deseados

6.-Implementacion: Es ya poner el programa en funcionamiento e instalarlo en el sistema [4]

El sistema Operativo (SO)

Ahora que hemos visto algunas de estas etapas centrémonos en el programa mas importante que tiene un computador u ordenador, se trata del Sistema Operativo (SO). como bien habrás comprendido nuestra máquina solo comprende un lenguaje binario de 1 y 0, lo que quiere decir que habla un lenguaje un tanto extraño para el usuario, que solo sabe introducir ordenes a través del teclado u otro tipo de dispositivo en su idioma natal, tenemos entonces aparentemente una situación difícil y que no logramos conciliar, para eso entonces requerimos del sistema Operativo pues el mediador o puente entre la máquina y el usuario, pues realiza la doble interpretación de llevar a la maquina el lenguaje particular que ella entiende y nos devuelve un resultado visible y que está en nuestro idioma o por lo menos en un lenguaje que resulta mas comprensible, cómo ves este programa resulta imprescindible porque no solo interpreta ordenes sino que administra todos los recursos de la maquina (la menoría, dispositivos, secuencias etc.).

El sistema operativo como máquina virtual

Un computador se compone de uno o más procesadores o CPUs, memoria principal o RAM, memoria secundaria (discos), tarjetas de expansión (tarjetas de red, modems y otros), monitor, teclado, mouse y otros dispositivos. O sea, es un sistema complejo. Escribir programas que hagan uso correcto de todas estas componentes no es una tarea trivial. Peor aún si hablamos de uso óptimo. Si cada programador tuviera que preocuparse de, por ejemplo, como funciona el disco duro del computador, teniendo además siempre presentes todas las posibles cosas que podrían fallar, entonces a la fecha se habría escrito una cantidad bastante reducida de programas.

Es mucho más fácil decir `escriba "Chao" al final del archivo "datos"’, que 
1-Poner en determinados registros del controlador de disco la dirección que se quiere escribir, el número de bytes que se desea escribir, la posición de memoria donde está la información a escribir, el sentido de la operación (lectura o escritura), amén de otros parámetros; 
2-Decir al controlador que efectué la operación. 
3-Esperar. Decidir qué hacer si el controlador se demora más de lo esperado (¿cuánto es "lo esperado"?). 
4-Interpretar el resultado de la operación (una serie de bits). 
5-Reintentar si algo anduvo mal. 
6-etc. 
Además, habría que reescribir el programa si se instala un disco diferente o se desea ejecutar el programa en otra máquina.

Hace muchos años que quedó claro que era necesario encontrar algún medio para aislar a los programadores de las complejidades del hardware. Esa es precisamente una de las tareas del sistema operativo, que puede verse como una capa de software que maneja todas las partes del sistema, y hace de intermediario entre el hardware y los programas del usuario. El sistema operativo presenta, de esta manera, una interfaz o máquina virtual que es más fácil de entender y de programar que la máquina "pura". Además, para una misma familia de máquinas, aunque tengan componentes diferentes (por ejemplo, monitores de distinta resolución o discos duros de diversos fabricantes), la máquina virtual puede ser idéntica: el programador ve exactamente la misma interfaz. [5]

Las tareas que generalmente realiza un Sistema Operativo son las siguientes:

-Realizar el interfaz sistema-usuario. 
-Compartir los recursos de Hardware entre los usuarios. 
-Permitir a los usuarios compartir sus datos entre ellos. 
-Prevenir que las actividades de un usuario no interfieran en las de los demás usuarios. 
-Calendarizar los recursos de los usuarios. 
-Facilitar el acceso a los dispositivos de E/S. 
-Recuperarse de fallas o errores. 
-Llevar el control sobre el uso de los recursos. 
-Entre otras. [5]

Tipos de Sistemas Operativos

Existen varios tipos de sistemas operativos, definidos según su capacidad para administrar simultáneamente información de 16 bits, 32 bits, 64 bits o más.

Sistema

Programación

Usuario único

Usuario múltiple

Tarea única

Multitarea

DOS

16 bits

x

 

x

 

Windows3.1

16/32 bits

x

 

 

No preventivo

Windows95/98/Me

32 bits

 

 

 

Cooperativo

WindowsNT/2000

32 bits

 

X

 

Preventivo

WindowsXP

32/64 bits

 

X

 

Preventivo

Unix / Linux

32/64 bits

 

X

 

Preventivo

MAC/OS X

32 bits

 

X

 

Preventivo

Windows 7

32/64 bits

 

X

 

Preventivo [6]

Nuestro mercado la mayoría de las computadores está dominado por el SO Windows en sus diferentes versiones, sin embargo LINUX esta entrado en algunos equipos debido a su filosofia de software libre y a una gran cantidad de ventajas, brevemente veamos algunas características de ambos sistemas operativos, aunque nos vamos a centrar en Windows XP debido a que nuestra sala tiene instalado este software y aunque en los computadores de reciente adquisición tienen instalado la versión 7, en lineas generales sigue manteniendo muchas cosas en común, que hacen fácil la transición entre una versión y la otra.

Qué el S.O LINUX?

Linux es uno de los tantos flavors de Unix. Se trata de un sistema operativo de 32 bits de libre distribución, desarrollado originalmente por Linus Torvalds, un estudiante de la universidad finlandesa de Helsinki, quien, en 1991, se abocó a la tarea de reemplazar a Minix, un clon de Unix de pequeñas proporciones y finalidad académica desarrollado años antes por Andrew Tannenbaun.

A medida que avanzaba en su desarrollo, Linus fue dejando el código fuente de las sucesivas versiones del kernel y utilidades de Linux a disponibilidad de los usuarios de Internet. Este fue sin duda un gran acierto, ya que hizo posible que una multitud de desarrolladores de todo el mundo se familiarizaran con el código, lo cual en primera instancia significó un gran aporte de sugerencias, evolucionado luego hacia un espectacular ejemplo de desarrollo distribuido de software: centenares de desarrolladores independientes, desde diferentes puntos del planeta tomaron a su cargo la producción de software para Linux, ya sea escribiéndolo desde cero o portándolo desde otras plataformas Unix. Esta modalidad de desarrollo continua aún hoy y ha permitido a Linux alcanzar un alto nivel de desarrollo y madurez, así también como un amplio grado de aceptación.

Actualmente, Linux posee todas las características que pueden encontrarse en cualquier sistema Unix moderno, incluyendo direccionamiento lineal de 32 bits, memoria virtual, multitarea real, shared libraries, módulos de kernel cargables on-demand, soporte TCP/IP (incluyendo SLIP, PPP, NFS, etc.), y sistema X-Windows (incluyendo servidores X para los adaptadores de video más populares, y clones de Motif, OpenLook, NextStep y Windows95 como window managers).[7]

Linux es distribuido bajo la Licencia General Pública de GNU, lo cual significa que puede ser distribuido, copiado y modificado gratuitamente, a condición de no imponer ninguna restricción en sucesivas distribuciones. En pocas palabras: Linux es un sistema operativo gratuito.

Obtención del software

Si se dispone de una conexión eficiente y segura a la Internet (y de una buena cuota de paciencia), un paquete Linux completo (kernel + utilidades + aplicaciones) puede obtenerse gratuitamente de muchos servidores FTP públicos; el único costo será en este caso el costo de la conexión a la Internet. [7]

Qué es SO Windows XP?

Windows XP (cuyo nombre en clave inicial fue Whistler) es una versión de Microsoft Windows, línea de sistemas operativos desarrollado por Microsoft. Lanzado al mercado el 25 de octubre de 2001, actualmente es el sistema operativo para x86 más utilizado del planeta (con una cuota de mercado del 56.72%) y se considera que existen más de 400 millones de copias funcionando.3 Las letras "XP" provienen de la palabra eXPeriencia (eXPerience en inglés).

Dispone de versiones para varios entornos informáticos, incluyendo PCs domésticos o de negocios, además de equipos portátiles, "netbooks", "tablet PC" y "media center". Sucesor de Windows 2000 junto con Windows ME, y antecesor de Windows Vista, es el primer sistema operativo de Microsoft orientado al consumidor que se construye con un núcleo y arquitectura de Windows NT disponible en versiones para plataformas de 32 y 64 bits.

A diferencia de versiones anteriores de Windows, al estar basado en la arquitectura de Windows NT proveniente del código de Windows 2000, presenta mejoras en la estabilidad y el rendimiento. Tiene una interfaz gráfica de usuario (GUI) perceptiblemente reajustada (denominada Luna), la cual incluye características rediseñadas, algunas de las cuales se asemejan ligeramente a otras GUI de otros sistemas operativos, cambio promovido para un uso más fácil que en las versiones anteriores. Se introdujeron nuevas capacidades de gestión de software para evitar el "DLL Hell" (infierno de las DLLs) que plagó las viejas versiones. Es también la primera versión de Windows que utiliza la activación del producto para reducir la piratería del software, una restricción que no sentó bien a algunos usuarios. Ha sido también criticado por las vulnerabilidades de seguridad, integración de Internet Explorer, la inclusión del reproductor Windows Media Player y aspectos de su interfaz. [8]

Actividades

Amigos, ahora que hemos leído un poco acerca de lo qué el software y nos hemos introducido en los diferentes Sistemas Operativos como primer programa que debe tener nuestro computador, los invito a realizar las siguientes actividades para que puedas comprender la manera en qué funcionan dentro de tu ordenador.

1.  Observa el siguiente video y busca en Internet qué es el software libre y escribe un resumen  de lo que encuentres y luego haga un comentario personal sobre lo que puedes interpretar sobre las ventajas y desventajas de usar el software libre GNU

2. Ahora ve a la siguiente aplicación de Jclic, que nos permitirá realizar algunas actividades interactivas, haz cada uno de los ejercicios que te plantean allí

http://clic.xtec.cat/db/jclicApplet.jsp?project=http://clic.xtec.cat/projects/winxp/jclic/winxp.jclic.zip&lang=es&title=Introducci%F3n+a+Windows+XP    [9]

3. Ahora para que conozcas la manera en qué funciona el SO que tenemos instalado en nuestro colegio, vamos a MICROSOFT empresa propietaria de los SO Windows y conozcamos de primera mano junto al programa “Alianza por la educación”, qué es el Windows XP, haz clic sobre el siguiente enlace:   (Para que puedas visualizar los videos debes abrir el enlace solo en Internet explorer) [10]

http://www.microsoft.com/latam/educacion/TV/xpyoffice2003/default.aspx

Versión humorística de lo qué es un SO
   
   

Fuentes

[1]  http://biblioweb.sindominio.net/telematica/softlibre/node1.html

[2] http://es.wikipedia.org/wiki/Software

[3] http://www.angelfire.com/scifi/jzavalar/apuntes/IngSoftware.html

[4] http://es.answers.yahoo.com/question/index?qid=20090224085506AAF9OJk

[5] http://www.euram.com.ni/pverdes/verdes_informatica/informatica_al_dia/que_es_un_so_144.htm

[6] http://es.kioskea.net/contents/systemes/sysintro.php3

[7] http://www.investigacion.frc.utn.edu.ar/labsis/Publicaciones/QueEsLinux/QueEsLinux.html

[8] http://es.wikipedia.org/wiki/Windows_XP

[9] Aplicación Jclic para iantrodicur a windows xp. Gabriel González y Manel Plou ver (applet) Punt Òmnia-Marianao Sant Boi del Llobregat (Baix Llobregat) http://clic.xtec.cat/db/jclicApplet.jsp?project=http://clic.xtec.cat/projects/winxp/jclic/winxp.jclic.zip&lang=es&title=Introducci%F3n+a+Windows+XP 

[10] Qué es: Alianza por la Educación (Partners in Learning.) La iniciativa Alianza por la Educación de Microsoft apoya el compromiso doble de Microsoft de promover la calidad de educación y ofrecer canales alternativos para el progreso económico. A través de la formación de alianzas con gobiernos y escuelas de todo el mundo, Alianza por la educación trabaja para integrar la tecnología en la enseñanza, el aprendizaje e investigación cotidianos.Actualmente, casi 3,5 millones de educadores en más de 100 países han recibido capacitación basada en el plan de estudios de Alianza por la educación y esto ha llegado a más de 80 millones de estudiantes a nivel mundial.Tres programas clave ayudan a los educadores a emplear tecnología a través de todo el proceso de aprendizaje y permiten a los estudiantes lograr sus metas de aprendizaje. http://www.microsoft.com/latam/educacion/alianzaporlaeducacion/partnersinlearning.mspx

Informática básica– El hardware

Es indudable que si se empieza un curso de computación debemos ir por el principio, y esto es conocer un poco el equipo en que estamos trabajando. El computador es un artefacto que ha tenido una gran evolución no solo desde el punto de vista físico, sus componentes que cada vez son mejores y mas baratos, sino también que hay detrás de s toda una evolución tecnológica bien interesante de lo que es el ingenio humano, la búsqueda por encontrar alternativas mejores, su fabricación ya es de por sí algo fantástico de comprender. En cuanto al software es el desarrollo de la lógica llevada a una expresión fascinante, es increíble que bajo una una premisa tan sencilla como es el 1 y 0 se hayan podido encontrar tantas posibilidades. Nuestro mundo actual toma una expresión que solo es posible gracias a los computadores, desde que se inventaron llegaron para quedarse, hoy están en todas partes en la mayoría de nuestras actividades:la escuela, la casa, los negocios, la industrial, en fin inconcebible la mayoría de los procesos actuales sin el uso de este binomio software y hardware, así que empecemos por comprender un poco su funcionamiento.

Veamos inicialmente un poco historia de cómo se dio este invento extraordinario, una evolución que  ha llevado una verdadera revolución tecnológica, acompañada de la evolución del conocimiento, aquí vemos como se marca el progreso tecnológico pues pasamos de maquinas enormes que funcionaban con tubos a miniaturas que tenemos hoy gracias a los microprocesadores.

Para complementar esta línea de tiempo veamos el siguiente enlace:

http://es.scribd.com/doc/17006/linea-de-tiempo-de-la-computacion

Ahora que ya tenemos un poco de claridad sobre la forma como ha evolucionado el computador, veamos en qué consiste el hardware y posteriormente el software.

EL HARDWARE

Se denomina hardware o soporte físico al conjunto de elementos materiales que componen un ordenador. Hardware también son los componentes físicos de una computadora tales como el disco duro, CD-Rom, disquetera (floppy), etc.. En dicho conjunto se incluyen los dispositivos electrónicos y electromecánicos, circuitos, cables, tarjetas, armarios o cajas, periféricos de todo tipo y otros elementos físicos.
El hardware se refiere a todos los componentes físicos (que se pueden tocar) de la computadora: discos, unidades de disco, monitor, teclado, ratón (mouse), impresora, placas, chips y demás periféricos. En cambio, el software es intangible, existe como ideas, conceptos, símbolos, pero no tiene sustancia. Una buena metáfora sería un libro: las páginas y la tinta son el hardware, mientras que las palabras, oraciones, párrafos y el significado del texto son el software. Una computadora sin software sería tan inútil como un libro con páginas en blanco.
Tipos de hardware
Se clasifica generalmente en básico y complementario, entendiendo por básico todo aquel dispositivo necesario para iniciar el ordenador, y el complementario como su nombre lo dice sirve para realizar funciones específicas o más allá de las básicas.

Periféricos de entrada

Son los que permiten que el usuario aporte información exterior. Entre ellos podemos encontrar: teclado, ratón (mouse), escáner, SAI (Sistema de Alimentación Ininterrumpida), micrófono, etc.
Periféricos de salida
Son los que muestran al usuario el resultado de las operaciones realizadas por el PC. En este grupo podemos encontrar: monitor, impresora, altavoces, etc. (1)

Periféricos de entrada/salida
Son los dispositivos que pueden aportar simultáneamente información exterior al PC y al usuario. Aquí se encuentran: módem (Modulador/Demodulador), unidades de almacenamiento (Discos duros, disquetes o floppy), ZIP, Memorias de pequeño tamaño, flash, etc)…

Veamos en detalle algunos de estes componentes:

Imagen

Características

Unidad Central de Proceso (CPU)Se podría definir como el cerebro del ordenador (en el caso de una computadora), este dispositivo es el que se ocupa de controlar y gobernar el ordenador. Este consiste en un circuito microscopico que interpreta y ejecuta las instrucciones de los programas almacenados en memoria y que ademas y que ademas tomas los datos de las unidades de salida, es decir, se trata del componente del ordenador que se ocupa del control y el proceso de datos. La potencia de un sistema informático (hardware) se mide principalmente por su CPU. (2) 

- La Unidad de Control (UC), que interpreta y ejecuta las instrucciones de la máquina almacenadas en la memoria principal o RAM (Random Acces Memory) y genera señales de control necesarias para ejecutar dichas instrucciones.

- La Unidad Aritmetico Lógica (UAL o ALU) recibe los datos sobre los que efectua operaciones de calculo y comparaciones, toma decisiones lógicas (determina si una afirmacion es correcta o falsa mediante reglas del algebra de Boole) y devuelve luego el resultado, todo ello bajo supervision de la unidad de control.

- Los registros de trabajo, se podria definir como el “lugar” donde se almacena información temporal, que constituyen el almacenamiento interno de la CPU.  (2)

El microprocesador: El microprocesador,

Llamada también procesador, es el circuito integrado central y más complejo de una computadora u ordenador; a modo de ilustración, se le suele asociar por analogía como el “cerebro” de una computadora.

El procesador es un circuito integrado constituido por millones de componentes electrónicos integrados. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador.

Desde el punto de vista funcional es, básicamente, el encargado de realizar toda operación aritmético-lógica, de control y de comunicación con el resto de los componentes integrados que conforman un PC, siguiendo el modelo base de Von Neumann. También es el principal encargado de ejecutar los programas, sean de usuario o de sistema; sólo ejecuta instrucciones programadas a muy bajo nivel, realizando operaciones elementales, básicamente, las aritméticas y lógicas, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria. (3)

La board
Placa base, o placa madre (motherboard), es el elemento principal de todo ordenador, en el que se encuentran o al que se conectan todos los demás aparatos y dispositivos. Físicamente, se trata de una “oblea” de material sintético, sobre la cual existe un circuito electrónico que conecta diversos elementos que se encuentran alclados sobre ella.
Los principales fabricantes de Boards son: Intel, Msi, Biostar, ASRock, Shuttle, Mobostar, Gigabyte, Asustek, Micro Star, Elitegroup, Tyan, Epox, Aopen, Nmc Pe, First, Albatron, Chaintech, Fujitsu Siemens, Sun, Maxdata, Tekram  (4)
 Tarjeta de video:
Esta es la que transmite al monitor la información gráfica que debe presentar en la pantalla. Con algo más de detalle, realiza dos operaciones:
interpreta los datos que le llegan del procesador, ordenándolos y calculando para poder presentarlos en la pantalla en forma de un rectángulo más o menos grande compuesto de puntos indivuduales de diferentes colores (pixels).
Toma la salida de datos digitales resultante de ese proceso y la transforma en una señal analógica que puede entender el monitor.
Estos dos procesos suelen ser realizador por uno o más chips: el procesador gráfico o GPU (Unidad de procesador grafico) y el conversor analógico-digital o RAMDAC, aunque en ocasiones existen chips accesorios para otras funciones o bien se realizan todas por un único chip. (4)
Tarjeta de sonido:

Es la que permite al computador manejar sonido (también se conoce como tarjeta de audio). Esta tarjeta hace posible reproducir sonido por medio de los parlantes o grabar sonidos provenientes del exterior mediante el micrófono (es una tarjeta interna, pero tiene puertos externos en los que se conectan los parlantes y el micrófono). En los PC de bajo costo, a veces la tarjeta de sonido es reemplazada por un chip de sonido integrado en la tarjeta madre; eso reduce el precio del computador, pero la calidad es aceptable. (4)
Tarjeta de red:

La tarjeta adaptadora de red es las interface entre la computadora y el cable de la red. La función de la tarjeta de red es preparar, enviar y controlar los datos en la red. Para preparar los datos que se enviarán a la red, la tarjeta usa un dispositivo llamado transceiver (transmisor-receptor), convertir la transmisión de formato serial a formato paralelo. Cada tarjeta tiene su propia y única dirección, lo cual permite que sea diferenciada de todas las demás tarjetas en la red.

Las tarjetas de red tiene opciones configurables que deben ser colocadas. Esas opciones incluyen la interrupción (IRQ), la dirección del puerto I/O y la dirección de la memoria base (base memory address). Para asegurar la compatibilidad entre la computadora y la tarjeta de red, debe de ser adecuado al bus de datos de la arquitectura de la computadora, y tener el tipo de conector adecuado al cable. /4)

La memoria RAM:

La memoria de un ordenador es donde se encuentra la información que maneja el procesador y las instrucciones que ejecuta. Podemos imaginar que es la mesa de trabajo del procesador; todo aquello que éste necesita ha de estar colocado en la memoria: aplicaciones, datos, controladores, etc. Para que el procesador pueda acceder a un programa grabado en un disco, ha de pasarlo previamente a la memoria.

A esta memoria se le llama RAM (acrónimo de Randon Access Memory, Memoria de Acceso Aleatorio)

Entre mas memoria tenga el computador, se podrá tener mas programas abiertos, y el computador tendrá algo mas de velocidad.

La capacidad de la memoria se mide en Mb, en múltiplos de 8, ejem 16,32,64…Mb. Actualmente los computadores cuentan con 256 Mb de memoria como mínimo. (4)

Disco duro:

  • El Disco Duro es un dispositivo magnético que almacena todos los programas y datos de la computadora.
  • Su capacidad de almacenamiento se mide en gigabytes (GB) y es mayor que la de un disquete (disco flexible).
  • Suelen estar integrados en la placa base donde se pueden conectar más de uno, aunque también hay discos duros externos que se conectan al PC mediante un conector USB. (5)

 

Unidad de CD – DVD – Blue ray 

La unidad de CD – DVD ha dejado de ser un accesorio opcional para convertirse en parte integrante de nuestro ordenador, sin la cual no podríamos ni siquiera instalar la mayor parte del software que actualmente existe, por no hablar ya de todos los programas multimedia y juegos.

Pero vayamos a ver las características más importantes de estas unidades.

En primer lugar vamos a diferenciar entre lectores, grabadores y regrabadores. Diremos que los más flexibles son los últimos, ya que permiten trabajar en cualquiera de los tres modos, pero la velocidad de lectura, que es uno de los parámetros más importantes se resiente mucho, al igual que en los grabadores.

Así tenemos que en unidades lectoras son habituales velocidades de alrededor de 34X (esto es 34 veces la velocidad de un lector CD de 150 Kps.), sin embargo en los demás la velocidad baja hasta los 6 ó 12X.
Dado que las unidades lectoras son bastante económicas, suele ser habitual contar con una lectora, y una regrabadora, usando la segunda sólo para operaciones de grabación. (6)

Monitor:
Los monitores de un computador es de igual importancia que muchas partes del computador ya que por medio de este es que se visualiza todo. Mejor dicho un computador si monitor no serviría

En el mercado encontramos gran cantidad de monitores, estos los encontramos en diferentes tamaños o formas, e inclusive se encuentra los monitores normales CRT, los pantalla plana LCD, plasma o LED. Se encuentran en una gran variedad de tamaños según las necesidades particulares del usuario.

Impresora:

La impresora es un periférico de salida esencial de la PC, como su misma palabra lo dice imprime en papel información, documentos, cartas, fotos, etc. de la PC para así poder ser archivada, presentada, etc., etc. Las impresoras son unidades de salida de datos soportados en papel. Permiten la obtención de listados o resultados de procesos de forma legible para las personas.

Básicamente hay tres clases de impresoras:inyección de tinta, laser y matriz de puntos. (4)

Scanner:

Son unidades que permiten copiar documentos y archivarlos digitalmente, son una especie de fotocopiadora pero en vez de imprimir se almacena en un archivo. Con el auge del documento electrónico y la caída vertical de sus precios, los escáner se han vuelto casi tan popular como las impresoras. Usualmente son producidos por las mismas empresas que fabrican éstas y los hay para el hogar, para oficina y para usos profesionales.

Para scanear texto existe un proceso llamado OCR (reconocimiento óptico de caracteres) es bastante satisfactorio; no es demasiado preciso, pero hay que aclarar que una alta precisión sólo la alcanzan programas para OCR profesionales como OMNI PAGE. (4)

Teclado:

En el teclado al presionar una tecla se envía una orden al computador para que pueda ser interpretada y presentar el símbolo o signo correspondiente en la pantalla del monitor.

Actualmente existen muchos tipos de teclados, están los básicos, los ergonómicos, los multimedia que en algunos casos tienen hasta calculadora incorporada. (4)

Mouse o ratón:

Cada vez que se mueve el ratón se envía una instrucción al computador para mover el puntero o cursor que aparece en la pantalla del monitor.

También tiene dos funciones adicionales al presionar los botones derecho o izquierdo, algunos incorporan un rueda en el centro que a la vez es un tercer boton.

Están los mouse tradiciones de bola y los mas avanzados como los ópticos que son especiales para trabajar en diseño grafico y tareas que necesiten mas sensibilidad y precisión en el mouse. (4)

Cámara fotográfica:

Es similar a una cámara convencional pero guarda las imágenes capturadas en forma digital.

La entrada de datos se realiza cuando se conecta la cámara al computador y mediante un programa se trasladan las fotografías digitales al disco duro para ser archivadas, procesadas o impresas.

 

El microfono:Un micrófono es otro tipo de dispositivo de entrada. Conéctelo a la computadora y utilice la computadora para grabar audio. (Algunas computadoras tienen micrófonos internos.) Un micrófono también se puede usar para mantener una conferencia telefónica con otro usuario de computadora.

Actividades

1. Ahora que hemos visto algunas de las partes del computador realiza el siguiente ejercicio con un applet de Jclic, te permitirá identificar cada una de las partes del computador. (7)

- http://clic.xtec.cat/db/jclicApplet.jsp?project=http://clic.xtec.cat/projects/informat/jclic/informat.jclic.zip&lang=es&title=Inform%E1tica+b%E1sica 

2. Realiza la siguiente actividad, te puedes apoyar en la información previa. Nota 

http://ficus.pntic.mec.es/~cmed0011/dispositivos_es.htm

3. Ahora observa el siguiente video de Maravillas modernas sobre toda la evolución que ha tenido el computador.

 

Fuentes:

(1) http://www.trucoswindows.net/conteni7id-22-Que-es-el-Hardware.html

(2) http://h2non.wordpress.com/2007/10/15/unidad-central-de-proceso-cpu/

(3) http://es.wikipedia.org/wiki/Microprocesador

(4) http://compupractica.galeon.com/Board.html

/5) http://www.masadelante.com/faqs/disco-duro

(6) http://www.pchardware.org/cdrom.php

(7) Aplcacion en jclic para explicar informatica basica partes del computador.  Informática básica Gayle Almonte Escribir un mensaje a Gayle Almonte Instituto de Capacitación Informática
San Pedro de Macoris (República Dominicana)
En estos paquetes de actividades se repasan los principales componentes de un ordenador: unidad central, periféricos, software… i también aspectos sobre internet y Windows.

(8) ITE, Instituto de Tecnologías Educativas. Ministerio de Educación. Gobierno de España.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Informática básica- manejo correcto del teclado

Iniciamos con esta entrada una nueva serie de destrezas básicas para el acceso correcto a la informática básica,para eso, amigos no hay como empezar por el principio, y este es manejo del teclado, un reconocimiento general del software y el hardware y el sistema operativo. Asi que empecemos por el teclado y luego iremos avanzando por todos estos temas. Para manejar adecuadamente el computador se requiere tener la habilitar de una buena manera, no  “chuzografiar” como sucede con una gran cantidad de estudiantes que al no tener una técnica correcta, escriben solo con dos dedos, y hasta adquieren cierta habilidad, así que amigos, aprender consiste en ocasiones en desaprender yeso es precisamente lo que vamos hacer, vamos a tomarnos un tiempo para que veamos como es la postura correcta, el reconocimiento del teclado, como deben ser colocadas las manos y aprovechar todos nuestros dedos para que digitemos correctamente la información que ebe ser ingresada en el computador.

Se trata de un dispositivo que integra una gran cantidad de teclas, semejantes a las de una máquina de escribir mecánica. También tiene una serie de botones extras que realizan otras funciones específicas. A través del tiempo, este dispositivo es de los que menos modificaciones han sufrido, ya que por excelencia es el periférico de entrada más común de las computadoras y de los más indispensables.

Los teclados y computadoras de escritorio, reemplazaron del mercado el uso de las máquinas de escribir mecánicas y máquinas de escribir eléctricas (1)

image

Reconozcamos el teclado

El teclado es el dispositivo fundamental de entrada del computador .  Su operatoria no ha sufrido prácticamente cambios desde la aparición del IBM PC hasta nuestros días, solo pequeñas modificaciones de detalle, que han consolidado 4 tipos de teclado que pueden considerarse estándar; tres de ellos introducidos por IBM, el cuarto preconizado por Microsoft para sus Sistemas Windows.

  • Teclado PC XT de 83 teclas (en desuso)
  • Teclado PC AT de 84 teclas (en desuso)
  • Teclado extendido de 101 teclas
  • Teclado extendido Windows de 104 teclas.

Además de los anteriores, se han utilizado otros tipos no estándar, en especial los de portátiles pequeños, en los que el tamaño no permite una distribución convencional de teclas.  En lo sustancial todos han utilizado la disposición clásica de teclas de la máquina de escribir (tipo QWERTY), que se ha mantenido hasta nuestros días, aunque han existido también otros diseños.  Por ejemplo, la disposición Dvorak. [2]

- El teclado esta dividido en 4 partes fundamentales, el teclado alfanumérico, el teclado numérico, las teclas de función, y las teclas de dirección.

PARTES DEL TECLADO

El teclado alfanumérico es similar al teclado de una máquina de escribir, dispone de todas las letras del alfabeto, los diez dígitos decimales y todos los signos de puntuación y acentuación, además de la barra espaciadora.

El teclado numérico es similar al de una calculadora, dispone de los diez dígitos decimales, las operaciones matemáticas más habituales (suma, resta, multiplicación y división) Además de la tecla “Bloq Num” o “Num Lock” que activa o desactiva este teclado.

Las teclas de función se sitúan el la parte superior del teclado alfanumérico, van del F1 al F12, y son teclas que aportan atajos en el uso del sistema informático. Por ejemplo, al pulsar F1 se suele activar la Ayuda del programa que se está usando. Algunos teclados modernos incluyen otro conjunto de teclas en la parte superior a las de función que permiten acceder a Internet, abrir el correo electrónico o controlar la reproducción de archivos multimedia. Estas teclas no tienen un carácter universal y dependen de cada fabricante, pero también se pueden considerar teclas de función.

Las teclas de Dirección se sitúan entre el teclado alfanumérico y el teclado numérico y son las flechitas que permiten mover el cursor a la derecha-izquierda y arriba-abajo (3)

partesm del teclado

1.  image Corresponde a la tecla Esc  permite  cancelar una acción, evento o proceso que estemos haciendo.

2 Tab. image Tecla de tabulador muy similar a las maquinas de escribir. Muy usado en formularios para pasar de un campo a otro.

3. Bloq May. image Bloque de mayúsculas permite activar solo las mayusculas.

4. Mayus.   en otros teclados SHIFT   o también una flecha hacia arriba, image Tecla mayúsculas que sirve para que la pulsemos y sin soltarla escribamos una o varias letras con la otra mano, en mayúsculas y en el momento que la soltamos todo aparecerá en minúsculas (por ejemplo para escribir Carlos, pulsaríamos esta tecla y sin soltarla pulsamos la "C", luego la soltamos y escribimos el resto "arlos").-Veis que en la foto aparece "Shift" pero en la mayoría de los teclados solo viene la flecha.-Es una de las teclas duplicadas para comodidad, pues vereis que está también a la derecha de este bloque alfanumérico que vemos.

5. Ctrl. image Hay dos teclas con esta función. Es una tecla de combinación, es decir funciona en combinación con otras teclas por ejemplo Ctrl+C nos permite copiar la selección que tengamos en la memoria.

6- Esta tecla con el logo de Windows, image despliega el menú inicio de Windows.

7. Alt image sirve para obtener los caracteres de código ASCII combinado con un número por ejemplo: ALT+64 = @

8. Barra espaciadora image

9. "AltGr"  image  sirve para realizar determinadas acciones en combinación con otra tecla pero solo en determinados casos que exija un programa su uso.

10. image Equivale a pulsar el botón derecho del mouse, desplegando el menú contextual.

11. Las teclas flechas de dirección, image permiten desplazar el cursor en dirección de la flecha.

12. ENTER. image En algunos teclados aparece como una flecha apuntando a la izquierda, en otros INTRO, permite confirmar una orden.

13. Retr.  o backspace  image borra el carácter que hay a la izquierda del cursor

14. Teclas de función van desde F1 a F12.  image No tienen una función determinada, dependiendo de la configuración de cada programa.

Existen además otras teclas como Insert, Av Pág. que su nombre nos indica su función, por eso no vamos a entrar en mayor detalle, a medida que vayas trabajando veras como funciona.

Conectores y puertos del teclado

Tipo de conector

Características

Imagen

USB Conector serial de 4 terminales, capaz de transmitir teóricamente hasta 480 Mbps image
PS/2 – miniDIN Conector tipo DIN de 6 pines. image
PS/1 – DIN Conector tipo DIN de 5 pines. image(1)

Actividades:

Para que puedas dominar el teclado la única manera de hacerlo es trabajando, así que entra a tu computador y activa el software disponible para aprender un poco de mecanografía y practica con toda dedicación las diferentes lecciones, eso si debes ser persistente hasta que logres dominar con TODOS tus dedos las diferentes teclas del teclado y sobre todo a digitar sin mirarlas, debes tener toda tu atención en la pantalla. Así que amigo animo y vamos a practicar.

2 Para que practiques en tu casa, vaya al siguiente enlace en donde podrás encontrar lecciones interactivas  para que puedas reforzar lo  aprendido en la clase:

- http://www.sense-lang.org/typing/tutor/index.php?lang=ES&key=spanish   

3. Vaya al siguiente enlace y revisa todas las partes del teclado, haz un esquema en tu cuaderno.

- http://aliso.pntic.mec.es/~aulguada/a/4.htm

4. Ahora vea el siguiente video para que afiances aún mas tu aprendizaje.

   

 

Fuentes:

(1) http://www.informaticamoderna.com/Teclado.htm#car

[2] http://www.zator.com/Hardware/H7_1.htm

(3) http://cmapspublic2.ihmc.us/rid=1HBSFR4W0-2DKN6JN-L1H/TECLADO.pdf

La energía nuclear: el lado oscuro de la fuerza

Asistimos con horror a los sucesos acaecidos en Japón en donde un terremoto y posterior Tsunami han devastado a la población, y sin embargo este horror palidece frente a las múltiples explosiones y posibles riesgos de contaminación radiactiva de la planta nuclear de Fukushima. Sus consecuencias para el medio ambiente y el riesgo sanitario es demasiado alto como para pasarlo por alto. En las ultimas entradas en este blog hemos estado estudiando el uso de las energías renovables y NO renovables y desde luego teníamos en turno estudiar el uso tecnológico de la energía nuclear pero no esperábamos que un suceso como este nos tuviera en vilo frente a las consecuencias que este hecho está teniendo en el mundo.

Desde los años 50 y 60, el uso de estas plantas estuvo en boga, aparentemente el uso de unos pocos kilos de combustible (uranio) garantizaba un suministro de energía electrica reemplazando la quema intensiva de carbón, parecía la panacea, sin embargo en los años 70 y 80 aparecieron varios accidentes que hizo cambiar la opinión publica. El suceso que mas ha conmovido la población fue el acontecido en 1986 en Chernóbil, en donde el uso de una tecnología deficiente y un mal proceso de mantenimiento llevaron a exponer a cientos de miles de personas a enormes dosis de radiación que les ha causado la muerte, la contaminación al entorno, el retiro forzoso de miles de personas. Si bien es cierto que estamos urgidos de energía, ¿vale la pena el riesgo que corremos frente a este tipo de tecnología?, ¿Será qué acaso no solo somos responsables de nuestros procesos tecnológicos,  sino también de las consecuencias que una tecnología desbocada puede provocar en nuestro planeta?. Aquí queda abierta entonces la discusión.

Desde hace ya tiempo se habla sobre la seguridad que tienen las centrales nucleares, pero a causa de la crisis nuclear que hay en Japón a raíz del terremoto y posterior tsunami el tema está mucho más candente. El riesgo que hay en el país nipón es evidente, con peligros que van desde emisión de radiaciones hasta la fusión del núcleo.
El proceso de la energía nuclear se basa en una colisión entre varios elementos dentro del núcleo de la central. Cuando allí el uranio, torio y plutonio reciben un neutrón se produce un impacto entre ambos, algo que libera energía creando dos neutrones, que a continuación impactarán con dos núcleos atómicos que se volverán a multiplicar y así sucesivamente. En este proceso se genera mucha energía, en forma de calor. Lo que se busca en las centrales es hacer este proceso de forma controlada, por lo que se aplican diferentes procedimientos, usando un material para diluir el material fusionable y disminuir la velocidad de los neutrones, utilizando un material que comúnmente se llama moderador. Con estos dos procesos se puede controlar lo que ocurre en el proceso, pero para que la central nuclear sea efectiva es necesario sacar la energía, para lo que se usa un líquido refrigerante, que también servirá para enfriar el reactor.
En el caso de la central de Fukushima el refrigerante usado es agua normal. Esta pasa por el reactor, lo enfría y genera vapor. El vapor transcurre por una serie de turbinas que están conectadas a un generador y ahí es donde se genera la electricidad que después podemos usar —el proceso se repite de forma continuaDe lo que ha sucedido en la central de Fukushima la mayoría estamos al corriente, pero básicamente, con el terremoto los reactores se pararon de forma automática y a continuación fallaron los dos sistemas para enfriarlo, primero el eléctrico y posteriormente los motores diésel, que fueron afectados por el tsunami. A partir de ahí el reactor se comienza a recalentar y la presión aumenta, por lo que se libera algo de vapor radiactivo al edificio de contención hermético.

Posteriormente se han producido explosiones que han destruido las paredes del edificio del reactor. Los operarios consiguieron hacer funcionar las bombas de refrigeración, en las que usan agua de mar para refrigerar el reactor junto con ácido bórico, que retrasa el proceso de la reacción nuclear..
Ahora vamos a lo que sucede cuando se produce una fusión del núcleo. Normalmente el reactor funciona a unos 1.200 grados Celsius y hay un riesgo real de fusión cuando se alcanzan los 3.000 grados. La fusión del núcleo se puede producir debido a diferentes causas, principalmente porque la potencia del reactor no pueda ser controlada ya que no se pueda refrigerar correctamente el reactor, ya sea por la pérdida de refrigerante o por la imposibilidad de hacer funcionar el sistema. Esto último es lo que está sucediendo en la central de Fukushima. Cuando se sobrepasa la barrera de temperatura anteriormente mencionada tiene lugar la fusión del núcleo, que se produce cuando el material usado, normalmente uranio, pasa de estar en estado sólido a líquido. Con esto se produciría la destrucción del reactor y lo más grave, un posible colapso de la estructura del edificio —que es lo que sucedió en Chernobyl debido a algo mucho más serio, una explosión del reactor— y la posible filtración del material radiactivo al subsuelo (lo que nunca ha ocurrido todavía).
En la memoria de todos está lo ocurrido en Chernobyl y el gran temor es si en Japón se puede producir una tragedia de este tipo. Por el momento parece que no será así y aunque se produzca la fusión del núcleo las consecuencias no tienen por qué ser las mismas, ya que la estructura de la central de Fukushima es más segura que la de Chernobyl. No obstante, espero que no lleguemos a comprobar si es así o no, ya que eso significará que no se ha producido ninguna fusión del núcleo y que finalmente la situación se ha podido controlar.

Actividades:

Para que puedas comprender un poco mas como es qué funciona la energía nuclear y como es su proceso para que se logre aprovechar su energía para transformarse en electricidad te invito a que realices las siguientes actividades.

1, Visita las siguiente infografías (animaciones) y realiza un bosquejo de ellas en tu cuaderno:

http://www.iesmariazambrano.org/Departamentos/flash-educativos/nuclear.swf

https://www.planetseed.com/files/uploadedfiles/Science/Features/Earth_Science/Global_Climate_Change_and_Energy/anim/nuclearplant/es/nuclearplant.html?width=700&height=375&popup=true

http://www.inza.com/ainoa/nuclear2.swf

2. Ahora visita la página del profesor Arturo Quirantes, que tiene una cátedra de Física en la Universidad de Granada que en palabras muy sencillas nos explica como es el proceso de fusión en una central nuclear y qué es lo que posiblemente esté pasando al interior del reactor de Fukushima.

http://fisicadepelicula.blogspot.com/2011/03/fukushima-y-el-sindrome-de-china.html

En el siguiente recurso veras información que nos lleva a analizar los pros y los contra de la energía nuclear, haz clic en el enlace y una vez que leas la información, haz un resumen en tu cuaderno en el que esté incluido tanto los beneficios, así como las consecuencias de esta energía.

https://www.planetseed.com/es/node/15752

3. Observa los siguientes videos para que te hagas una idea de cómo funciona esta energía, sus uso industrial y los efectos que está teniendo en nuestro ambiente.

 

En los siguientes videos podrás darte una idea de los accidentes de Chernóbil y el actual de Fukushima

 

Haz clic sobre el siguiente enlace para que te puedas comprender la magnitud de lo que ha sido esta tragedia de Japón, no solo en cuanto al terremoto y posterior tsunami sino todas las implicaciones que ha tenido en los reactores de la planta de Fukushima. (Video de la televisión española)

http://www.rtve.es/alacarta/videos/informe-semanal/informe-semanal-japon-emergencia-nuclear/1049854/

Actividad  evaluativa

Amigo estudiante, la evaluación de este tema lo podrás realizar de la siguiente forma:

Presentación de un ensayo individual en donde  analices y asumas una posición personal con respecto a la energía nuclear y todas sus posibilidades.  Este trabajo lo debes enviar al correo electrónico asociado a este blog: myprofeciencias@gmail.com Se calificará de acuerdo a rubrica que se les presentará en la clase.

Fuentes:

(1) http://win-hd.com/showthread.php?t=9354&page=1  

(ZAMBRANO, 2011)

(Institución Educativa María Zambrano, 2011 <http://www.iesmariazambrano.org/>)

Arturo Quirantes. http://fisicadepelicula.blogspot.com/2011/03/fukushima-y-el-sindrome-de-china.html 2011

- El PAIS.es <http://www.inza.com/ainoa/nuclear2.swf>

- Excelencia de Schlumberger en el Desarrollo Educativo (SEED) <

https://www.planetseed.com/es/node/15752

-Videos cortesía de www.youtube.com

Energías NO renovables

Indudablemente cuando se escribe sobre energías NO renovables el protagonista indiscutible es el Petróleo. Este preciado hidrocarburo prácticamente es la fuente principal de energía que tenemos en nuestra era tecnológica, desde su aprovechamiento inicial cuando nace la industria automovilística ha movido nuestras economías, su uso intensivo está haciendo que se hable ya de la posibilidad de que tengamos un mundo sin petróleo en un futuro y la idea espanta un poco porque de alguna forma todos los derivados del petróleo se han vuelto imprescindibles para nuestra vida moderna. No solo el petróleo mueve el mundo desde el punto de vista energético, lo hace también desde un punto de vista financiero y político, pues al concentrar tanto capital ha sacado lo mejor del ser humano y a veces lo peor, las ansias de poder y concentración de riqueza es tal que ha creado un mundo con unas desigualdades demasiado marcadas, El capital financiero asociado al petróleo ha creado y puesto gobiernos en todo el mundo que favorezcan sus intereses. Así que este tema no solo debe abordarse desde el ámbito de la tecnología que es sumamente interesante sino desde  otras perspectivas. Es interesante que el estudiante comprenda bajo que intereses se mueve esta industria para que de alguna forma sea consiente de los nuevos roles que en materia de energía se esta moviendo nuestra sociedad.

El petróleo fuente de energía

Aunque se ha formado el petróleo en épocas milenarias, se lo comienza a utilizar hace unos 200 años.

El petróleo es una sustancia oleosa de color muy oscuro compuesta de hidrógeno y carbono, y se lo llama hidrocarburo. Puede hallarse en estado líquido o en estado gaseoso. En estado líquido es llamado aceite "crudo", y en estado gaseoso,  gas natural. Su origen es de tipo orgánico y sedimentario. Se formó como resultado de un complejo proceso físico-químico en el interior de la tierra, que, debido a la presión y las altas temperaturas, se van descomponiendo las materias orgánicas que estaban formadas especialmente por  fitoplancton y el zooplancton marinos, así como por materia vegetal y animal, que se fueron depositando en el pasado en lechos de los grandes lagos, mares  y océanos. A esto se unieron rocas y mantos de sedimentos. A través del tiempo se transformó esta sedimentación en petróleo y gas natural.

En 1852, el físico y geólogo canadiense Abraham Gessner logró una patente para conseguir del petróleo crudo un combustible para lámparas, el queroseno. En 1855, el químico estadounidense Benjamín Silliman hizo una publicación sobre los derivados útiles que se podían obtener de la destilación del petróleo.

La industria petrolera comienza en 1859, cuando Edwin L. Drake perforó el primer pozo para extraer petróleo, con la finalidad de obtener abundante kerosene para la iluminación.  En Rusia se perforaron los primeros pozos entre 1806 y 1819. En Canadá y en Alemania comenzaron las perforaciones en 1857.

Se lo comercializó por primera vez en 1850, cuando Samuel Kier, un boticario de Pittsburg, Pennsylvania (EE.UU.), lo vendía con el nombre de "aceite de roca" o "petróleo".

Más adelante comenzó a explotarse la industria del petróleo, que fue avanzando cada vez más hasta convertirse en elemento esencial para el desarrollo industrial y económico actual. El de mejor calidad es el llamado "liviano". (1)

Origen del petróleo

El origen del petróleo ha sido un tópico de interés para muchos investigadores. Saber su origen es muy complicado. Una gran mayoría de químicos y geólogos dicen que tiene un origen orgánico, mientras que otros científicos piensan que se forman en la Naturaleza por un método abiógeno. De este modo tenemos dos teorías:

  • Teoría orgánica
  • Teoría inorgánica (abiógena)

- La teoría orgáncia dice que el petróleo y el gas se forman a partir de las sustancias orgánicas de las rocas sedimentarias. Consideramos que el primer material orgánico que se acumula en las rocas sedimentarias está formado por residuos muertos de la microflora y de la microfauna (plancton,…) que se desarrollan en el agua del mar y a las cuales se añaden restos animales y vegetales por transporte. (2)

El petróleo se origina de una materia prima formada principalmente por detritos de organismos vivos acuáticos, vegetales y animales, que vivían en los mares, las lagunas o las desembocaduras de los ríos, o en las cercanías del mar. Se encuentra únicamente en los medios de origen sedimentario. La materia orgánica se deposita y se va cubriendo por sedimentos; al quedar cada vez a mayor profundidad, se transforma en hidrocarburos, proceso que, según las recientes teorías, es una degradación producida por bacterias aerobias primero y anaerobias después. Estas reacciones desprenden oxígeno, nitrógeno y azufre, que forman parte de los compuestos volátiles de los hidrocarburos.

A medida que los sedimentos se hacen compactos por efectos de la presión, se forma la "roca madre". Posteriormente, por fenómenos de "migración", el petróleo pasa a impregnar arenas o rocas más porosas y más permeables (areniscas, calizas fisuradas, dolomías), llamadas "rocas almacén", y en las cuales el petróleo se concentra y permanece en ellas si encuentra alguna trampa que impida la migración hasta la superficie donde se oxida y volatiliza, perdiendo todo interés como fuente de energía. (3)

Esta materia orgánica se cubrió paulatinamente con capas cada vez más gruesas de sedimentos, al abrigo de las cuales, en determinadas condiciones de presión, temperatura y tiempo, se transformó lentamente en hidrocarburos (compuestos formados de carbón e hidrógeno), con pequeñas cantidades de azufre, oxígeno, nitrógeno, y trazas de metales como fierro, cromo, níquel y vanadio, cuya mezcla constituye el petróleo crudo.
Estas conclusiones se fundamentan en la localización de los mantos petroleros, ya que todos se encuentran en terrenos sedimentarios. Además los compuestos que forman los elementos antes mencionados son característicos de los organismos vivientes.
Un problema que presenta esta teoría, sin embargo, es el hecho inexplicable de que de los más de 30,000 campos petroleros en el mundo entero, hasta ahora sólo 33 de ellos constituyen grandes yacimientos, de entre los cuales, 25 se encuentran en el Medio Oriente y contienen más del 60% de las reservas probadas de nuestro planeta.
Por lo tanto es difícil pensar que tantos animales hayan muerto en menos del 1% de la corteza terrestre, que es el porcentaje que le corresponde al Medio Oriente. (4)

- La teoria inorganica o  abiógeno considera que las sustancias inorgánicas, mediante transformaciones química, forman el petróleo. Pero es conocido que el petróleo tiene sustancias orgánicas. El problema que se plantea pues es saber que transformaciones dan lugar a materia orgánica a partir de materia inorgánica.

“El hecho capital a tener en cuenta es que el petróleo
nació en las profundidades de la Tierra,
y es sólo ahí donde hay que buscar su origen”
DIMITRI MENDELEYEV, 1877

En 1951, el geólogo ruso Nikolai Alexandrovich Kudryavtsev fue el primero en proponer una teoría que decía que el petróleo era producido abióticamente.

Mas recientemente, en Occidente, el profesor de astronomía de la Universidad de Cornell (retirado) Thomas Gold, con la publicación de su libro "The Deep Hot Biosphere" (La Profunda y Caliente Biósfera), propuso tres controversiales teorías sobre la formación del petróleo:

  • La Tierra tiene un dominio orgánico subterráneo con una masa y volumen mas grande que la biósfera (la suma total de las cosas vivientes) de su superficie.
  • Los organismos que habitan esta biósfera caliente y profunda no son plantas ni animales, sino bacterias amantes del calor que sobreviven con una dieta basada en hidrocarburos: gas natural y petróleo.
  • Dio la idea de que los hidrocarburos en la Tierra no son "combustibles fósiles", sino parte del material primordial con que fue formada la Tierra hace unos 4.500 millones de años.

Actualmente existen algunas evidencias que apoyan esta teoría, a saber:

  • Hay petróleo descubierto a una profundidad de 9 kms, mucho mas hondo que los 5,5 kms que es el límite a partir del cual no se encuentra mas materia orgánica.
  • Ciertos pozos ya vaciados han vuelto a rellenarse.
  • La cantidad de petróleo sacado hasta ahora debido al material orgánico no coincide con los modelos.
  • Experimentos que demuestran que los hidrocarburos podrían formarse en el interior de la Tierra por procesos inorgánicos.

Hay 2 teorías abióticas para explicar la formación de los hidrocarburos:

  • la teoría "débil": el petróleo se forma abióticamente, pero en tasas no mayores que aquellas que asumen los geólogos del petróleo de acuerdo con la teoría convencional (esta versión no tiene consecuencias políticas).
  • la teoría "fuerte": el petróleo se forma a una velocidad suficiente para reemplazar las reservas tan rápido como las agotamos. Es decir, a un promedio 10.000 veces mas rápido que todo lo conocido en la geología del petróleo (esto tiene fuertes implicaciones políticas).

Ambas versiones dicen que el petróleo es formado debido a reacciones de carbonatos con óxido de hierro y agua en una región de la Tierra llamado "manto".
Además, se asume que el manto es una reserva tan grande que la cantidad de reactantes consumidos en la reacción no se agotarían por unos miles de millones de años (esto tiene su razón de ser, ya que el manto es muy grande).

El origen abiogénico de los depósitos de petróleo podrían explicar algunos fenómenos que actualmente no son bien entendidos, como por que los depósitos de petróleo casi siempre contienen helio biológicamente inerte.
Basado en esta teoría, Gold persuadió al Swedish State Power Board para perforar en búsqueda de petróleo en una roca que había sido fracturada por un antiguo meteorito. Fue una buena prueba para su teoría porque la roca no era sedimentaria y por tanto no contenía remanentes de plantas o vida marina. La perforación fue exitosa, aunque no se encontró suficiente petróleo para hacerla viable comercialmente.

Lo que por ahora está claro es que no existe una sola clase de petróleo, sino dos. La evidencia no prueba que todo el petróleo sea abiótico.
Pero si parece que al menos el metano puede formarse abióticamente, tal como
lo demostró la sonda "Huygens" (que formaba parte de la misión de la NASA "Cassini-Huygens") cuando aterrizó en Titán, uno de los satélites de Saturno. Esta luna tiene lagos de metano, de sus nubes llueve metano continuamente, y por supuesto este metano no tiene una base biológica.  )5)

Las teorías abiogénicas rechazan la suposición de que ciertas moléculas encontradas dentro del petróleo, conocidas como biomarcadores, sean indicativas del origen biológico del petróleo.

En cambio, argumentan que algunas de estas moléculas pueden provenir de microbios que el petróleo encuentra en su emigración hacia la superficie a través de la corteza, que otras se han encontrado también en meteoritos -los cuales presumiblemente nunca han tenido contacto con materia viviente-, y que otras pueden ser engendradas por reacciones posibles en el petróleo inorgánico.
Esta teoría ha sido impulsada durante los últimos 50 años en Rusia y Ucrania y ya fue apoyada por científicos prestigiosos desde principios del siglo XIX. (6)

A pesar de todo, la mayoría de los geólogos no aceptan esta teoría abiótica, y por ello la controversia está servida.

Composición del petróleo

El petróleo es un compuesto, más denso que el agua y de un olor fuerte y característico. Se extrae de la superficie terrestre y después es almacenado en grandes depósitos y enviado mediante oleoductos (vía terrestre) o por los grandes barcos petrolíferos (vía marítima) a las partes del mundo donde es necesario.

En numerosas ocasiones se utiliza la palabra crudo para denominar al petróleo sin refinar.

Los hidrocarburos están formados por carbono, hidrógeno, oxígeno, nitrógeno y azufre. La composición media del petróleo sería  85%C, 12%H y 3% S+O+N, además de varios elementos metálicos. La composición de los crudos varía dependiendo del lugar donde se han formado. Las diferencias entre unos y otros se deben, a las distintas proporciones de las diferentes fracciones de hidrocarburos, y a la variación en la concentración de azufre, nitrógeno y metales.

En las refinerías el crudo pasa a convertirse en un derivado del petróleo. El proceso de refinado pretende:

  • Separar el crudo en fracciones diferentes mediante destilación fraccionada o fraccionamiento del crudo.

  • Convertir las fracciones que tienen una menor demanda en el mercado en otras de mayor demanda. Esto se realiza gracias a la técnica de ruptura térmica o catalítica (craqueo).
    Craqueo térmico : Consiste en la ruptura de las cadenas carbonadas y acción de calor a una temperatura de entre 400 – 650ºC. De esta ruptura se obtienen parafinas cortas , olefinas, naftalenos o aromáticos.
    Craqueo catalítico: Mejoras en el craqueo térmico mediante el empleo de catalizadores.

  • Modificar las cadenas de carbono de las gasolinas para aumentar la calidad del carburante (reformado) y elevando el poder antidetonante de la gasolina .
    Los catalizadores de reformado tienen dos funciones químicas diferentes:
    Función metálica: Las reacciones que catalizan los metales (Pt, Re, Ir) en este proceso son las de hidrogenación y deshidrogenación.
    Función ácida: Esta función la realiza el cloro, y tiene como misión llevar a cabo las reacciones de isomerización de n-parafinas, así como catalizar algunas etapas del proceso de reformado.

  • Realizar un refinado adicional para eliminar los componentes no deseados, como el azufre. (7)

Proceso de separación de petroleo

Las refinerías de petróleo funcionan veinticuatro horas al día para convertir crudo en derivados útiles. El petróleo se separa en varias fracciones empleadas para diferentes fines. Algunas fracciones tienen que someterse a tratamientos térmicos y químicos para convertirlas en productos finales como gasolina o grasas.

En los primeros tiempos, la refinación se contentaba con separar los productos preexistentes en el crudo, sirviéndose de su diferencia de volatilidad, es decir, del grosor de una molécula. Fue entonces cuando se aprendió a romperlas en partes más pequeñas llamadas "de cracking", para aumentar el rendimiento en esencia, advirtiéndose que ellas y los gases subproductos de su fabricación tenían propiedades "reactivas".

A principios del pasado siglo, los franceses de Alsacia refinaron el petróleo de Pechelbronn, calentándolo en una gran "cafetera". Así, por ebullición, los productos más volátiles se iban primero y a medida que la temperatura subía, le llegaba el turno a los productos cada vez más ligeros. El residuo era la brea de petróleo o de alquitrán. Asimismo, calcinándolo, se le podía transformar en coque, excelente materia prima para los hornos metalúrgicos de la época.

Los ingenieros norteamericanos y germanos introdujeron los alambiques en cascada, sistema en que cada cilindro era mantenido a una temperatura constante. El petróleo penetraba en el primero y una vez rescatado lo que podía evaporarse, pasaba al siguiente, que se encontraba a temperatura más alta y así sucesivamente hasta el último, desde el cual corría la brea.

Plantas modernas

El principio básico en la refinación del crudo radica en los procesos de destilación y de conversión, donde se calienta el petróleo en hornos de proceso y se hace pasar por torres de separación o fraccionamiento y plantas de conversión.

En las distintas unidades se separan los productos de acuerdo a las exigencias del mercado.

La primera etapa en el refinado del petróleo crudo consiste en separarlo en partes, o fracciones, según la masa molecular.

El crudo se calienta en una caldera y se hace pasar a la columna de fraccionamiento, donde la temperatura disminuye con la altura.

Las fracciones con mayor masa molecular (empleadas para producir por ejemplo aceites lubricantes y ceras) sólo pueden existir como vapor en la parte inferior de la columna, donde se extraen.

Las fracciones más ligeras (que darán lugar por ejemplo a combustible para aviones y gasolina) suben más arriba y son extraídas allí.

Todas las fracciones se someten a complejos tratamientos posteriores para convertirlas en los productos finales deseados.

Una vez extraído el crudo, se trata con productos químicos y calor para eliminar el agua y los elementos sólidos y se separa el gas natural. A continuación se almacena el petróleo en tanques desde donde se transporta a una refinería en camiones, por tren, en barco o a través de un oleoducto. Todos los campos petroleros importantes están conectados a grandes oleoductos.

Destilación básica

La herramienta básica de refinado es la unidad de destilación. El petróleo crudo empieza a vaporizarse a una temperatura algo menor que la necesaria para hervir el agua.

Los hidrocarburos con menor masa molecular son los que se vaporizan a temperaturas más bajas, y a medida que aumenta la temperatura se van evaporando las moléculas más grandes.

El primer material destilado a partir del crudo es la fracción de gasolina, seguida por la nafta y finalmente el queroseno.

En las antiguas destilerías, el residuo que quedaba en la caldera se trataba con ácido sulfúrico y a continuación se destilaba con vapor de agua.

Las zonas superiores del aparato de destilación proporcionaban lubricantes y aceites pesados, mientras que las zonas inferiores suministraban ceras y asfalto.

Craqueo térmico

El proceso de craqueo térmico, o pirólisis a presión, se desarrolló en un esfuerzo para aumentar el rendimiento de la destilación.

En este proceso, las partes más pesadas del crudo se calientan a altas temperaturas bajo presión. Esto divide (craquea) las moléculas grandes de hidrocarburos en moléculas más pequeñas, lo que aumenta la cantidad de gasolina —compuesta por este tipo de moléculas— producida a partir de un barril de crudo.

No obstante, la eficiencia del proceso era limitada, porque debido a las elevadas temperaturas y presiones se depositaba una gran cantidad de coque (combustible sólido y poroso) en los reactores. Esto, a su vez, exigía emplear temperaturas y presiones aún más altas para craquear el crudo.

Más tarde se inventó un proceso de coquefacción en el que se recirculaban los fluidos; el proceso funcionaba durante un tiempo mucho mayor con una acumulación de coque bastante menor. Muchos refinadores adoptaron este proceso de pirólisis a presión.

Alquilación y craqueo catalítico

La alquilación y el craqueo catalítico aumentan adicionalmente la gasolina producida a partir de un barril de crudo.

En la alquilación, las moléculas pequeñas producidas por craqueo térmico se recombinan en presencia de un catalizador.

Esto produce moléculas ramificadas en la zona de ebullición de la gasolina con mejores propiedades (por ejemplo, mayores índices de octano-octanaje) como combustible de motores de alta potencia, como los empleados en los aviones comerciales actuales.

En el proceso de craqueo catalítico, el crudo se divide (craquea) en presencia de un catalizador finamente dividido. Esto permite la producción de muchos hidrocarburos diferentes que luego pueden recombinarse mediante alquilación, isomerización o reformación catalítica para fabricar productos químicos y combustibles de elevado octanaje para motores especializados. (8)

Derivados del petróleo

Los siguientes son los diferentes productos derivados del petróleo y su utilización:

- Gasolina motor corriente y extra – Para consumo en los vehículos automotores de combustión interna, entre otros usos.

- Turbocombustible o turbosina – Gasolina para aviones jet, también conocida como Jet-A.

- Gasolina de aviación – Para uso en aviones con motores de combustión interna.

- ACPM o Diesel – De uso común en camiones y buses.

- Queroseno – Se utiliza en estufas domésticas y en equipos industriales. Es el que comúnmente se llama "petróleo".

- Cocinol – Especie de gasolina para consumos domésticos. Su producción es mínima.

- Gas propano o GLP – Se utiliza como combustible doméstico e industrial.

- Bencina industrial – Se usa como materia prima para la fabricación de disolventes alifáticos o como combustible doméstico

- Combustóleo o Fuel Oil – Es un combustible pesado para hornos y calderas industriales.

- Disolventes alifáticos – Sirven para la extracción de aceites, pinturas, pegantes y adhesivos; para la producción de thinner, gas para quemadores industriales, elaboración de tintas, formulación y fabricación de productos agrícolas, de caucho, ceras y betunes, y para limpieza en general.

- Asfaltos – Se utilizan para la producción de asfalto y como material sellante en la industria de la construcción.

- Bases lubricantes – Es la materia prima para la producción de los aceites lubricantes.

- Ceras parafínicas – Es la materia prima para la producción de velas y similares, ceras para pisos, fósforos, papel parafinado, vaselinas, etc.

- Polietileno – Materia prima para la industria del plástico en general

- Alquitrán aromático (Arotar) – Materia prima para la elaboración de negro de humo que, a su vez, se usa en la industria de llantas. También es un diluyente

- Acido nafténico – Sirve para preparar sales metálicas tales como naftenatos de calcio, cobre, zinc, plomo, cobalto, etc., que se aplican en la industria de pinturas, resinas, poliéster, detergentes, tensoactivos y fungicidas

- Benceno – Sirve para fabricar ciclohexano.

- Ciclohexano – Es la materia prima para producir caprolactama y ácido adípico con destino al nylon.

- Tolueno – Se usa como disolvente en la fabricación de pinturas, resinas, adhesivos, pegantes, thinner y tintas, y como materia prima del benceno.

- Xilenos mezclados – Se utilizan en la industria de pinturas, de insecticidas y de thinner.

- Ortoxileno – Es la materia prima para la producción de anhídrido ftálico.

- Alquilbenceno – Se usa en la industria de todo tipo de detergentes, para elaborar plaguicidas, ácidos sulfónicos y en la industria de curtientes.El azufre que sale de las refinerías sirve para la vulcanización del caucho, fabricación de algunos tipos de acero y preparación de ácido sulfúrico, entre otros usos. En Colombia, de otro lado, se extrae un petróleo pesado que se llama Crudo Castilla, el cual se utiliza para la producción de asfaltos y/o para mejoramiento directo de carreteras, así como para consumos en hornos y calderas. (9)

Extracción del petróleo

La demanda de petróleo natural exige buscar yacimientos en zonas casi inaccesibles. Las plataformas petrolíferas extraen petróleo del mar. Las instalaciones terrestres son menos complejas, pero en ocasiones han de instalarse en lugares tan inhóspitos como este desierto de Argelia. (ver fotos abajo)

Aunque en un principio se empleó el método de percusión, cuando los pozos petrolíferos estaban situados a poca profundidad y bajo rocas de gran dureza, dicha técnica desde mediados del siglo XX dejó paso al método de rotación, ya que la mayor parte del petróleo se ha determinado que se encuentra a una profundidad de entre 900 y 5.000 metros, aunque hay pozos que llegan a los 7.000 u 8.000 metros.

Método de rotación
Consiste en un sistema de tubos acoplados unos a continuación de otros que, impulsados por un motor, van girando y perforando hacia abajo. En el extremo se halla una broca o trépano con dientes que rompen la roca, cuchillas que la separan y diamantes que la perforan, dependiendo del tipo de terreno. Además, existe un sistema de polea móvil del que se suspende el conjunto de los tubos que impide que todo el peso de los tubos –los pozos tienen profundidades de miles de metros– recaiga sobre la broca.

Encamisado
Para evitar que las paredes del pozo se derrumben durante la perforación y, al mismo tiempo, la estructura de los estratos del subsuelo permanezca inalterada, según se va perforando el pozo, éste va siendo recubierto mediante unas paredes –o camisas– de acero de un grosor de entre 6 y 12 milímetros.

Aprovechamiento del yacimiento
Los cálculos realizados históricamente permiten afirmar que habitualmente una bolsa de petróleo sólo suele ser aprovechada entre un 25% y un 50% de su capacidad total. El petróleo suele estar acompañado en las bolsas por gas. Ambos, por la profundidad a la que se hallan, están sometidos a altas presiones–el gas, por esa circunstancia, se mantiene en estado líquido–. Al llegar la broca de perforación, la rotura de la roca impermeable provoca que la presión baje, por lo que, por un lado, el gas deja de estar disuelto y se expande y el petróleo deja de tener el obstáculo de la roca impermeable y suele ser empujado por el agua salada que impregna generalmente la roca porosa que se encuentra por debajo de la bolsa de petróleo. Estas dos circunstancias hacen que el petróleo suba a la superficie.

Bombeo del petróleo
Sin embargo, llega un momento en que la presión interna de la bolsa
disminuye hasta un punto en que el petróleo deja de ascender solo -y, por otro lado, el gas, cada vez menor, deja de presionar sobre el crudo–, por lo que hay que forzarlo mediante bombas para que suba.
Este bombeo se realiza hasta el momento en que el coste del sistema
de extracción es mayor que la rentabilidad que se obtiene del petróleo, por lo que el pozo es abandonado.

Inyección de agua.
Para aumentar la rentabilidad de un yacimiento se suele utilizar un sistema de inyección de agua mediante pozos paralelos. Mientras que
de un pozo se extrae petróleo, en otro realizado cerca del anterior se
inyecta agua en la bolsa, lo que provoca que la presión no baje y el petróleo siga siendo empujado a la superficie, y de una manera más rentable que las bombas.
Este sistema permite aumentar la posibilidad de explotación de un pozo hasta, aproximadamente, un 33% de su capacidad. Dependiendo de las características del terreno, esta eficiencia llega al 60%.

Inyección de vapor
En yacimientos con petróleo muy viscoso (con textura de cera) se utiliza la inyección de vapor, en lugar de agua, lo que permite conseguir dos efectos:
1.) Por un lado, se aumenta, igual que con el agua, la presión de la bolsa de crudo para que siga ascendiendo libremente.
2.) Por otro, el vapor reduce la viscosidad del crudo, con lo se hace más sencilla su extracción, ya que fluye más deprisa.

Extracción en el mar
El avance en las técnicas de perforación ha permitido que se puedan desarrollar pozos desde plataformas situadas en el mar (off-shore), en aguas de una profundidad de varios cientos de metros.
En ellos, para facilitar la extracción de la roca perforada se hace circular constantemente lodo a través del tubo de perforación y un sistema de toberas en la propia broca.
Con ello, se han conseguido perforar pozos de 6.400 metros de profundidad desde el nivel del mar, lo que ha permitido acceder a una parte importante de las reservas mundiales de petróleo. (10)

Contaminación por petróleo

Los hidrocarburos son un tipo de contaminantes que afectan a la calidad del agua de manera importante. Los derrames de petróleo, cada día son más frecuentes en los océanos, dejan estelas de contaminación de efectos a muy largo plazo. La formación de una película impermeable sobre el agua en las zonas de derrame afecta rápida y directamente a las aves y a los mamíferos acuáticos ya que obstruye el intercambio gaseoso y desvía los rayos luminosos que aprovecha el fitoplancton para llevar a cabo el proceso de fotosíntesis.

La contaminación por petróleo crudo o por petróleo refinado (combustóleo, gasolina, y otros productos obtenidos por destilación fraccionada y procesamiento químico del petróleo crudo) es generada accidental o deliberadamente desde diferentes fuentes. Algunos investigadores consideran que la contaminación por petróleo proviene de los accidentes de los buque-tanques y de las fugas en los equipos de perforación marina, sin embargo, otros consideran que es cuestión de propaganda, ya que casi el 50 % del petróleo que llega a los mares y los océanos proviene de tierra firme, del que es arrojado al suelo por las personas en las ciudades y en zonas industriales que luego son arrastrados por las corrientes fluviales hasta terminar en los océanos.
Una gran proporción de la contaminación del mar se debe a los desechos de millones de barcos que recorren diariamente los mares. Es probable que el desecho más importante de todos ellos sea el petróleo. En 1970, la expedición Ra a través del océano Atlántico reportó que de los 57 días que duró el recorrido, en 43 de ellos el mar estaba visiblemente contaminado con trozos de petróleo solidificado, aceite y otros desechos.

  

Se calcula que alrededor de 1500 millones de toneladas al año son transportadas a través de los mares y que en el proceso de carga y descarga se pierde el 0.1 % de ese petróleo. Además es práctica común que los tanques cisterna utilicen como lastre agua de mar y la regresen contaminada con petróleo. Otros buque-tanques bombean el petróleo de desecho al mar en forma de desperdicio. Se calcula que por estas dos formas se arrojan al mar 3.5 millones de toneladas de petróleo. Otra forma de contaminación por petróleo del mar proviene de la perforación de pozos de gas y petróleo en las aguas costeras y de las fugas de las tuberías subacuáticas.
   En la explotación del petróleo se derrama cerca de la mitad en el área de perforación, lo que implica grandes pérdidas y contaminación del aire, agua y suelo. La manera tradicional de extraer o recuperar el petróleo es mediante bombeo con agua lo cual representa una pérdida considerable de agua. (11)

La contaminación por petróleo se produce por su liberación accidental o intencionada en el ambiente, provocando efectos adversos sobre el hombre o sobre el medio, directa o indirectamente.
La contaminación involucra todas las operaciones relacionadas con la explotación y transporte de hidrocarburos, que conducen inevitablemente al deterioro gradual del ambiente. Afecta en forma directa al suelo, agua, aire, y a la fauna y la flora.
Efectos sobre el suelo: las zonas ocupadas por pozos, baterías, playas de maniobra, piletas de purga, ductos y red caminera comprometen una gran superficie del terreno que resulta degradada.
Esto se debe al desmalezado y alisado del terreno y al desplazamiento y operación de equipos pesados. Por otro lado los derrames de petróleo y los desechos producen una alteración del sustrato original en que se implantan las especies vegetales dejando suelos inutilizables durante años.
Efectos sobre el agua: en las aguas superficiales el vertido de petróleo u otros desechos produce disminución del contenido de oxígeno, aportede sólidos y de sustancias orgánicas e inorgánicas.
En el caso de las aguas subterráneas, el mayor deterioro se manifiesta en un aumento de la salinidad, por contaminación de las napas con el agua de producción de petróleo de alto contenido salino.
Efectos sobre el aire: por lo general, conjuntamente con el petróleo producido se encuentra gas natural. La captación del gas está determinada por la relación gas/petróleo, si este valor es alto, el gas es captado y si es bajo, es venteado y/o quemado por medio de antorchas.
El gas natural está formado por hidrocarburos livianos y puede contener dióxido de carbono, monóxido de carbono y ácido sulfhídrico. Si el gas producido contiene estos gases, se quema. Si el gas producido es dióxido de carbono, se lo ventea. Si bien existen reglamentaciones, el venteo y la quema de gases contaminan extensas zonas en la dirección de los vientos.
Efectos sobre la flora y la fauna: la fijación de las pasturas depende de la presencia de arbustos y matorrales, que son los más afectados por la contaminación con hidrocarburos. A su vez estos matorrales proveen refugio y alimento a la fauna adaptada a ese ambiente. Dentro de la fauna, las aves son las más afectadas, por contacto directo con los cuerpos de agua o vegetación contaminada, o por envenenamiento por ingestión. El efecto sobre las aves puede ser letal.
Si la zona de explotación es costera o mar adentro el derrame de hidrocarburos produce daños irreversibles sobre la fauna marina.
Efectos del transporte de petróleo: el transporte de hidrocarburos es el que ha producido los mayores accidentes con graves consecuencias ecológicas.
y carboxihemoglobina. (12)

Actividades

Para que entiendas un poco mas como es el proceso de extracción y refinación del petróleo realiza:

1. Vea la siguiente animación (haz clic en el enlace)

http://www.portalplanetasedna.com.ar/petroleo.swf

2. Visita la siguiente infografia para observar de qué elementos está compuesto el petróleo y cómo se extrae el petróleo

http://www.consumer.es/web/es/medio_ambiente/energia_y_ciencia/2005/10/31/147662.php

3. Observa detenidamente la siguiente animación suminsitrada por la NASA haciéndole un rastreo a la mancha de petróleo que contaminó el año pasado el golfo de México

 

 
 

Fuentes:

(1) EDUCAR. ORG  http://www.educar.org/inventos/petroleo.asp

(2) http://www.textoscientificos.com/energia/combustibles/petroleo

(3) http://www.alipso.com/monografias/petroleo_comercio_mundial/

(4) http://www.quiminet.com/ar6/ar_armzgt-petroleo-origen-y-caracteristicas-fundamentales.htm

(5) http://www.iccc.es/2007/03/%C2%BFes-el-petroleo-abiotico/

(6) http://www.bibliotecapleyades.net/ciencia/ciencia_energy13.htm

(7) http://www.miliarium.com/monografias/mareasnegras/ComposicionPetroleo.asp

(8) http://www.profesorenlinea.cl/Ciencias/petroleoRefineria.htm

(9) http://www.monografias.com/trabajos16/derivados-petroleo/derivados-petroleo.shtml#DERIVAD

(10) http://www.muchapasta.com/b/var/Estraccion%20del%20petroleo.php

(11) http://www.sagan-gea.org/hojared_AGUA/paginas/14agua.html

12) http://es.answers.yahoo.com/question/index?qid=20080706112022AACeOtz

Otras energías renovables para nuestro planeta

Vivimos en una sociedad que cada día está mas urgida de energía que se produce mediante procesos de explotación intensiva de recursos no renovables, facilitando con ello que el problema ambiental sea cada vez mas critico pues este tipo de energía como productos residuales están cada día expulsando a la atmosfera cientos de toneladas de contaminantes que agravan la situación climática mundial. Además las grandes empresas que manejan estos recursos no renovables en su gran mayoría están aliadas a grandes empresas cuyo único interés es en producir mas capital desfavoreciendo las condiciones económicas y sociales de muchos países que entran en la dependencia al no poder distribuir de manera diferente sus recursos energéticos. De ahí que cada vez se hace mas necesario la utilización y viabilización de generar otro tipo de energía mas limpio y más equitativo con las personas. Proyectos como la utilización de la energía solar, eólica, el uso de la biomasa o la geotermia hace que esto sea posible. La evolución de la tecnología para su aprovechamiento esta a punto, solo falta un real interés de la gente y una buena voluntad política de sus dirigentes. Para ello se hace necesario que desde ya se genere una conciencia que vea en este tipo de recursos una máxima prioridad. Además desde el área de tecnología se puede empezar a experimentar con este tipo de recursos no solo para la concientización de los estudiantes en este tipo de recursos energéticos sino también para que se generen nuevas ideas y se gesten proyectos para generar energía a través de estas fuentes renovables.

En anteriores entradas habíamos visto las posibilidades de la energía solar (http://myprofetecnologia.wordpress.com/2011/02/20/la-energa-solar/),  ahora nos detendremos en esas otras fuentes (eolica, biomasa, geotermia, el agua) para generar energía eléctrica.

ENERGIA EOLICA– el poder del viento

La energía eólica es un tipo de energía renovable cuya fuente es la fuerza del viento. La forma típica de aprovechar esta energía es a través de la utilización de aerogeneradores o turbinas de viento.

¿Pero como se llega del viento a la electricidad? El antecedente directo de los actuales aerogeneradores son los viejos molinos de viento, que incluso hoy en día se siguen utilizando para extraer agua o moler grano.

Un molino es una máquina posee  aspas o palas unidas a un eje común, que comienza a girar cuando el viento sopla. Este eje giratorio esta unido a distintos tipos de maquinaria, por ejemplo maquinaria para moler grano, bombear agua o producir electricidad.

Para obtener electricidad, el movimiento de las aspas o paletas acciona un generador eléctrico (un alternador o un dinamo) que convierte la energía mecánica de la rotación en energía eléctrica. La electricidad puede almacenarse en baterías o ser vertida directamente a la red. El funcionamiento es bastante simple, y lo que se va complejizando es la construcción de aerogeneradores que sean cada vez más eficientes.

Los aerogeneradores pueden ser de eje horizontal, que son los más comunes hoy en día, o también los hay de eje vertical.

Uno de los problemas más frecuentes que presentan los aerogeneradores es su gran tamaño así como las vibraciones y ruido que provocan. Por esta razón suelen ubicarse en zonas alejadas de viviendas. Sin embargo empresas y científicos de todo el mundo siguen trabajando para construir aerogeneradores más pequeños , o silenciosos que puedan ubicarse en zonas urbanas.

Pero uno  de los problemas que más preocupa en el campo de la generación de la energía eólica es la variabilidad de la fuente, es decir del viento. Los aerogeneradores, en general, están preparados para funcionar en forma óptima cuando el viento sopla dentro de un rango determinado de velocidades. Por un lado se requiere cierta velocidad mínima para mover las aspas, por el otro lado existe también un límite máximo.

Por ejemplo lo más común es que esos límites sean con vientos de velocidades de entre 3 y 24 metros por segundo. Al mínimo se lo llama velocidad de conexión, o sea lo mínimo para generar algo de electricidad, y al máximo se lo llama velocidad de corte, o sea cuando ya es contraproducente, ya que podría romper el mecanismo.

Los aerogeneradores pueden trabajar solos o en parques eólicos, sobre tierra formando las granjas eólicas (1)

Para que te puedas dar una idea de cómo funciona un aerogenerador y con él producir energía electrica haga clic sobre el siguiente enlace para que puedas observar una infografia que nos muestra su funcionamiento y cada una de sus partes.

- http://www.iesmariazambrano.org/Departamentos/flash-educativos/eolica.swf

**

ENERGIA GEOTERMICA – el poder de la tierra

¿Qué es la energía geotérmica

Las plantas geotérmicas aprovechan el calor generado por la tierra. A varios kilómetros de profundidad en tierras volcánicas los geólogos han encontrado cámaras magmáticas, con roca a varios cientos de grados centígrados. Además en algunos lugares se dan otras condiciones especiales como son capas rocosas porosas y capas rocosas impermeables que atrapan agua y vapor de agua a altas temperaturas y presión y que impiden que éstos salgan a la superficie. Si se combinan estas condiciones se produce un yacimiento geotérmico.
    Una vez que se dispone de pozos de explotación se extrae el fluido geotérmico que consiste en una combinación de vapor, agua y otros materiales. Éste se conduce hacia la planta geotérmica donde debe ser tratado. Primero pasa por un separador de donde sale el vapor y la salmuera y líquidos de condensación y arrastre, que es una combinación de agua y materiales. Esta última se envía a pozos de reinyección para que no se agote el yacimiento geotérmico. El vapor continúa hacia las turbinas que con su rotación mueve un generador que produce energía eléctrica. Después de la turbina el vapor es condensado y enfriado en torres y laguna (2)

La energía geotérmica tiene varias ventajas: el flujo de producción de energía es constante a lo largo del año ya que no depende de variaciones estacionales como lluvias, caudales de ríos, etc. Es un complemento ideal para las plantas hidroeléctricas.
    El vapor producido por líquidos calientes naturales en sistemas geotérmicos es una alternativa al que se obtiene en plantas de energía por quemado de materia fósil, por fisión nuclear o por otros medios. Las perforaciones modernas en los sistemas geotérmicos alcanzan reservas de agua y de vapor, calentados por magma mucho más profundo, que se encuentran hasta los 3.000 metros bajo el nivel del mar. El vapor se purifica en la boca del pozo antes de ser transportado en tubos grandes y aislados hasta las turbinas. La energía térmica puede obtenerse también a partir de géiseres y de grietas.
    En algunas zonas de la Tierra, las rocas del subsuelo se encuentran a temperaturas elevadas. La energía almacenada en estas rocas se conoce como energía geotérmica. Para poder extraer esta energía es necesaria la presencia de yacimientos de agua cerca de estas zonas calientes. La explotación de esta fuente de energía se realiza perforando el suelo y extrayendo el agua caliente. Si su temperatura es suficientemente alta, el agua saldrá en forma de vapor y se podrá aprovechar para accionar una turbina.

Ventajas
  • Es una fuente que evitaría la dependencia energética del exterior.
  • Los residuos que produce son mínimos y ocasionan menor impacto ambiental que los originados por el petróleo, carbón…
Inconvenientes
  1. Emisión de ácido sulfídrico que se detecta por su olor a huevo podrido, pero que en grandes cantidades no se percibe y es letal.
  2. Emisión de CO2, con aumento de efecto invernadero.
  3. Contaminación de aguas próximas con sustancias como arsénico, amoniaco, etc.
  4. Contaminación térmica.
  5. Deterioro del paisaje.
  6. No se puede transportar. (3)

Como puedes apreciar la energía geotérmica no quema ningún combustible de origen fósil, además está disponible todo el año, para que te hagas una idea de como se puede aprovechar esta fuente de energia para producir energía electrica te invito a que veas la siguiente  infografía, haz clic en el enlace:

- http://www.iesmariazambrano.org/Departamentos/flash-educativos/geotermal.swf

**

ENEGIA DE LA BIOMASA – el poder de los residuos

La biomasa incluye la madera, plantas de crecimiento rápido, algas cultivadas, restos de animales, etc. Es una fuente de energía procedente, en último lugar, del sol, y es renovable siempre que se use adecuadamente.

La biomasa puede ser usada directamente como combustible. Alrededor de la mitad de la población mundial sigue dependiendo de la biomasa como fuente principal de energía. El problema es que en muchos lugares se está quemando la madera y destruyendo los bosques a un ritmo mayor que el que se reponen, por lo que se están causando graves daños ambientales: deforestación, pérdida de biodiversidad, desertificación, degradación de las fuentes de agua, etc.

También se puede usar la biomasa para prepara combustibles líquidos, como el metanol o el etanol, que luego se usan en los motores. El principal problema de este proceso es que su rendimiento es bajo: de un 30 a un 40% de la energía contenida en el material de origen se pierde en la preparación del alcohol.

Otra posibilidad es usar la biomasa para obtener biogás. Esto se hace en depósitos en los que se van acumulando restos orgánicos, residuos de cosechas y otros materiales que pueden descomponerse, en un depósito al que se llama digestor. En ese depósito estos restos fermentan por la acción de los microorganismos y la mezcla de gases producidos se pueden almacenar o transportar para ser usados como combustible.

El uso de biomasa como combustible presenta la ventaja de que los gases producidos en la combustión tienen mucho menor proporción de compuestos de azufre, causantes de la lluvia ácida, que los procedentes de la combustión del carbono. Al ser quemados añaden CO2 al ambiente, pero este efecto se puede contrarrestar con la siembre de nuevos bosques o plantas que retiran este gas de la atmósfera.

En la actualidad se están haciendo numerosos experimentos con distintos tipos de plantas para aprovechar de la mejor forma posible esta prometedora fuente de energía. (4)

Como podrás analizar una vez leído este apartado este tipo de energía aunque renovable tiene muchas cosas a favor , pero también tiene fuertes efectos en el ambiente como la deforestación, el monocultivo que intensifica el uso del suelo en un solo producto generando problemas a largo plaza en la fertilidad de los suelos, además de verdaderos  monopolios económicos que se van formando detrás de ellos- Sin embargo parta que entiendas la manera en qué funciona te invito a que veas la siguiente infografia y te hagas una idea de la manera en qué funciona.

http://www.iesmariazambrano.org/Departamentos/flash-educativos/biomasa.swf

**

ENERGIA HIDRAULICA – el poder del agua

Aunque por su importancia requiere de una espacio para ella misma, debido a este resumen de energías renovables nos vamos a referir en forma muy resumida de ella, sin embargo su impacto es muy grande y es en estos momentos la mayor generadora de energía eléctrica en nuestro país.

La energía hidráulica se basa en aprovechar la caída del agua desde cierta altura. La energía potencial, durante la caída, se convierte en cinética. El agua pasa por las turbinas a gran velocidad, provocando un movimiento de rotación que finalmente se transforma en energía eléctrica por medio de los generadores.

Es un recurso natural disponible en las zonas que presentan suficiente cantidad de agua y, una vez utilizada, es devuelta río abajo. Su desarrollo requiere construir pantanos, presas, canales de derivación y la instalación de grandes turbinas y equipamiento para generar electricidad. Todo ello implica la inversión de grandes sumas de dinero, por lo que no resulta competitiva en regiones donde el carbón o el petróleo son baratos. Sin embargo, el peso de las consideraciones medioambientales y el bajo mantenimiento que precisan una vez estén en funcionamiento centran la atención en esta fuente de energía.

La primera central hidroeléctrica moderna se construyó en 1880 en Northumberland, Gran Bretaña. El renacimiento de la energía hidráulica se produjo por el desarrollo del generador eléctrico, seguido del perfeccionamiento de la turbina hidráulica y debido al aumento de la demanda de electricidad a principios del siglo XX. En 1920 las centrales hidroeléctricas generaban ya una parte importante de la producción total de electricidad.

La energía hidroeléctrica es una de las más rentables. El costo inicial de construcción es elevado, pero sus gastos de explotación y mantenimiento son relativamente bajos. Aún así tienen unos condicionantes:

Las condiciones pluviométricas medias del año deben ser favorables

El lugar de emplazamiento está supeditado a las características y configuración del terreno por el que discurre la corriente de agua. (5)

Cómo funciona una central hidráulica?

Una centra hidráulica tiene por fin aprovechar, mediante un desnivel, la energía potencial contenida en forma de agua para convertirla en energía eléctrica utilizando unas turbinas acopladas a unos alternadores.
La gran cantidad de agua que se retiene, es mediante una presa, formando así un embalse o lago artificial del que se generará un salto de agua, para liberar eficazmente la energía potencial de la masa de agua y transformarla posteriormente en energía eléctrica, este tipo de centrales hidroeléctricas se llaman centrales con regulación.
El aprovechamiento del agua, consiste en llevar el agua de la presa por una galería de conducción con apenas desnivel, hasta un depósito llamado chimenea de expansión. De esta chimenea arranca una tubería forzada que conduce el agua hasta la sala de máquinas de la central. Posteriormente el agua es restituida al rio, utilizando un canal de descarga de agua abajo.
En la central propiamente dicha, se encuentran los equipos eléctricos formados por los grupos turbina-alternador. El agua que llega por la galería forzada es conducida hasta los álabes de la turbina, que unida por un eje al alternador hacen que el rotor de éste gire, induciendo en el estator una corriente eléctrica de alta intensidad y media tensión. Ésta mediante un transformador, pasará a ser de baja intensidad y alta tensión, apta por lo tanto para su transporte y distribución a los centros de consumo…. (6)

Haz clic en la siguiente infografia para que veas cómo funciona una central hidráulica

- http://www.iesmariazambrano.org/Departamentos/flash-educativos/hidraulica.swf

***

Actividades y proyecto de clase

1- Como podrás observar ya tienes un buen esquema de cómo se pueden aprovechar estas fuentes de energía renovable para la producción de electricidad. Ahora visita los siguientes enlaces para que puedas observar una serie de proyectos caseros para que tu puedas empezar a generar tu propia energía limpia con estas fuentes, ¡te animas¡

- http://www.cienciafacil.com/cocinaembudo.html

- http://www.gstriatum.com/energiasolar/articulosenergia/03_estufa_solar.html

- http://blog.hemmings.com/index.php/2007/04/26/almost-free-garage-heat-just-drink-a-lot-of-soda/

- http://elmundodelosinventores.blogspot.com/2009/08/como-fabricar-una-estufa-solar-casera.html

- http://es.scribd.com/doc/6694219/Planos-Para-Construir-Una-Cocina-Solar

- http://solarcooking.org/espanol/paracuina-es.pdf

2-  Observa los siguientes videos y reúnete en grupo y experimenta con una de estas alternativas las cuales presentarás a la clase y se experimentará la manera en qué funciona.

Cocina solar

3.Si ves que te puedes arriesgar a experimentar con este tipo de fuentes renovables y generar algo de energía,

Así que en grupos de cuatro (4) estudiantes van a analizar los materiales que se te han suministrado en esta web lesson y experimentar con un artefacto sencillo, la tarea es que logres construir una cocina solar  y freír en ella un huevo. También puedes experimentar con otras alternativas como un aerogenerador, etc. Contempla l a posibilidad de tomar una serie de fotos a todo tu proyecto y presenta tus resultados en una presentación powerpoint la cual será socializada a toda la clase. Tu presentación la puedes enviar al correo electrónico asociado a este blog: myprofeciencias@gmail.com

Fuentes:

(1) http://erenovable.com/2008/12/11/cmo-funciona-un-aerogenerador-o-turbina-eolica/

(2) http://www.panoramaenergetico.com/energia_geotermica.htm

(3) http://pedroreina.net/trabalu/19981999/webitos4.htm

(4) http://www.tecnun.es/asignaturas/Ecologia/Hipertexto/07Energ/170EnBiom.htm

(5) http://www.profesorenlinea.cl/fisica/EnergiaHidraulica.htm

(6) http://es.answers.yahoo.com/question/index?qid=20070817070109AAERSwY

La fibra óptica

Uno de los avances en telecomunicaciones mas interesantes es el que tiene que ver con la manera de usar  la luz para poder enviar información, generalmente asociada a un rayo laser. La fibra óptica ha hecho posible que podamos enviar enormes cantidades de información usando fibras mas delgadas que un cabello humano, veamos entonces en qué consiste, luego como se llego a esta tecnología, para posteriormente analizar sus usos  en las telecomunicaciones.

.

La fibra óptica  es un medio de transmisión empleado habitualmente en redes de datos; un hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de luz que representan los datos a transmitir. El haz de luz queda completamente confinado y se propaga por el interior de la fibra con un ángulo de reflexión por encima del ángulo límite de reflexión total, en función de la ley de Snell. La fuente de luz puede ser láser o un LED.

Las fibras se utilizan ampliamente en telecomunicaciones, ya que permiten enviar gran cantidad de datos a una gran distancia, con velocidades similares a las de radio o cable. Son el medio de transmisión por excelencia al ser inmune a las interferencias electromagnéticas, también se utilizan para redes locales, en donde se necesite aprovechar las ventajas de la fibra óptica sobre otros medios de transmisión. (1)

Breve historia de la fibra óptica

Las ondas de luz son una forma de energía electromagnética y la idea de transmitir información por medio de luz, como portadora, tiene más de un siglo de antigüedad. Hacia 1880, Alexander G. Bell construyó el fotófono que enviaba mensajes vocales a corta distancia por medio de la luz. Sin embargo, resultaba inviable por la falta de fuentes de luz adecuadas.

Con la invención y construcción del láser en la década de los 60 volvió a tomar idea la posibilidad de utilizar la luz como soporte de comunicaciones fiables y de alto potencial de información, debido a su elevada frecuencia portadora 1014 Hz. Por entonces, empezaron los estudios básicos sobre modulación y detección óptica. Los primeros experimentos sobre transmisión atmosférica pusieron de manifiesto diversos obstáculos como la escasa fiabilidad debida a precipitaciones, contaminación o turbulencias atmosféricas.

El empleo de fibras de vidrio como medio guía no tardó en resultar atractivo: tamaño, peso, facilidad de manejo, flexibilidad y coste. En concreto, las fibras de vidrio permitían guiar la luz mediante múltiples reflexiones internas de los rayos luminosos, sin embargo, en un principio presentaban elevadas atenuaciones.

En 1966 se produce un gran hito para los que serán las futuras comunicaciones por fibra óptica, y es la publicación por Kao y Hockman de un artículo en el cual se señalaba que la atenuación observada hasta entonces en las fibras de vidrio, no se debía a mecanismos intrínsecos sino a impurezas originadas en el proceso de fabricación. A partir de esta fecha empiezan a producirse eventos que darán como resultado final la implantación y utilización cada vez mayor de la Fibra Óptica como alternativa a los cables de cobre: (2)

En poco más de 10 años la fibra óptica se ha convertido en una de las tecnologías más avanzadas que se utilizan como medio de transmisión de información. Este novedoso material vino a revolucionar los procesos de las telecomunicaciones en todos los sentidos, desde lograr una mayor velocidad en la transmisión y disminuir casi en su 
totalidad los ruidos y las interferencias hasta multiplicar las formas de envío en comunicaciones y recepción por vía telefónica.

Las fibras ópticas son filamentos de vidrio de alta pureza extremadamente compactos: El grosor de una fibra es similar a la de un cabello humano. Fabricadas a alta temperatura con base en silicio, su proceso de elaboración es controlado por medio de computadoras, para permitir que el índice de refracción de su núcleo, que es la guía de la onda luminosa, sea uniforme y evite las desviaciones, entre sus principales características se puede mencionar que son compactas, ligeras, con bajas pérdidas de señal, amplia capacidad de transmisión y un alto grado de confiabilidad debido a que son inmunes a las interferencias electromagnéticas de radio-frecuencia. Las fibras ópticas no conducen señales eléctricas por lo tanto son ideales para incorporarse en cables sin ningún componente conductivo y pueden usarse en condiciones peligrosas de alta tensión. Tienen la capacidad de tolerar altas diferencias de potencial sin ningún circuito adicional de protección y no hay problemas debido a los cortos circuitos. Tienen un gran ancho de banda, que puede ser utilizado para incrementar la capacidad de transmisión con el fin de reducir el costo por canal; De esta forma es considerable el ahorro en volumen en relación con los cables de cobre. Con un cable de seis fibras se puede transportar la señal de más de cinco mil canales o líneas principales, mientras que se requiere de 10,000 pares de cable de cobre convencional para brindar servicio a ese mismo número de usuarios, con la desventaja que este último medio ocupa un gran espacio en los ductos y requiere de grandes volúmenes de material, lo que también eleva los costos.

Comparado con el sistema convencional de cables de cobre donde la atenuación de sus señales (decremento o reducción de la onda o frecuencia) es de tal magnitud que requieren de repetidores cada dos kilómetros para regenerar la transmisión, en el sistema de fibra óptica se pueden instalar tramos de hasta 70 km. Sin que halla necesidad de recurrir a repetidores lo que también hace más económico y de fácil mantenimiento este material.

Originalmente, la fibra óptica fue propuesta como medio de transmisión debido a su enorme ancho de banda; sin embargo, con el tiempo se ha planteado para un amplio rango de aplicaciones además de la telefonía, automatización industrial, computación, sistemas de televisión por cable y transmisión de información de imágenes astronómicas de alta resolución entre otros. (3)

Conceptos Básicos…

Los censores de fibra óptica están formados por un amplificador que contiene el del emisor y el receptor, y un cable de fibra óptica que transmite y recibe la luz reflejada por el objeto a detectar. Las características y presentaciones dependen mucho del fabricante. Así como en las fotocélulas, la evolución tecnológica no se ha hecho muy patente, en los censores de fibra óptica se ha notado una evolución en los últimos años muy importante.

Ventajas de la fibra óptica…

Capacidad de transmisión: La idea de que la velocidad de transmisión depende principalmente del medio utilizado, se conservo hasta el advenimiento de las fibras ópticas, ya que ellas pueden transmitir a velocidades mucho más altas de lo que los emisores y transmisores actuales lo permiten, por lo tanto, son estos dos elementos los que limitan la velocidad de transmisión.

  1. Mayor capacidad debido al ancho de banda mayor disponible en frecuencias ópticas.

  2. Inmunidad a transmisiones cruzadas entre cables, causadas por inducción magnética.

  3. Inmunidad a interferencia estática debida a las fuentes de ruido.

  4. Resistencia a extremos ambientales. Son menos afectadas por líquidos corrosivos, gases y variaciones de temperatura.

  5. La seguridad en cuanto a instalación y mantenimiento. Las fibras de vidrio y los plásticos no son conductores de electricidad, se pueden usar cerca de líquidos y gases volátiles.

 

Cómo se hace una fibra optica?

La fabricación de fibra óptica es un proceso de alta tecnología. Tengamos en cuenta que el grosor estándar de la fibra es 125 micras (aproximadamente el doble que un cabello humano) y el núcleo es de unas 8 micras (en fibras monomodo, que son las usadas para comunicaciones a larga distancia). Y evidentemente, es crítico mantener la pureza y la regularidad del núcleo.

Todo ello convierte la fabricación de fibra en un proceso complicado. Sin embargo, el fundamento es sencillo (y es una idea brillante). Se trata de construir grandes tubos de vidrio que reproducen a escala macroscópica la estructura de la fibra. Estos tubos se llaman preformas. Posteriormente, la preforma se va fundiendo y estirando hasta que obtenemos un filamento alargado cuyo fino diámetro reproduce a escala microscópica la preforma original.

En este proceso, se parte de barras de vidrio huecas, que se bañan en un gas que contiene las partículas de lo que será el futuro núcleo. Calentando hasta mil grados, estas partículas comienzan a fundirse hasta que el tubo hueco colapsa y forma una vara maciza con la estructura deseada: la preforma.

Una vez hechas las preformas, se colocan verticalmente y se calientan hasta que se van fundiendo formando un hilillo continuo. De una preforma se sacan kilómetros y kilómetros de fibra. Este proceso, a pesar de la sencillez de la idea, es muy complejo y delicado, ya que hay que garantizar que el flujo se mantiene constante, que el hilo mantiene un grosor de 125 micras y que no se producen tensiones excesivas. Durante esta fase además se aprovecha para crear una capa protectora sobre el vidrio.

La fibra óptica se enrolla en grandes bobinas. Las grandes redes de comunicación usan haces de varias fibras agrupadas en un cable tan grueso como un cable eléctrico pero capaces de transmitir una cantidad de información mucho mayor, a distancias muchísimo mayores y con un menor gasto de potencia. (4)

Cómo se instala o repara la fibra óptica

 

Cuando  los grandes cables de fibra óptica son enterrados en el fondo del mar requiere de un gran esfuerzo técnico y tecnológico además de requerir enormes cantidades de dinero. También cuando se instala muchos accidentes pueden pasar. terremotos, tsunamis que hacen que estos cables requieran ser reparados.

Entre 1959 y 1996 se estableció que menos del nueve por ciento de los incidentes se debieron a causas naturales, lo que llevó al proceso de entierro de los cables. Todo comienza con el traslado de uno de los extremos del cable hasta una estación instalada en la costa. Los repetidores ópticos basados en erbio, que conectados a bordo del propio barco (que dicho sea de paso, ha sido especialmente diseñado y/o preparado para esta tarea), tienen un intervalo de 40-80 kilómetros entre sí. Dependiendo del barco, su equipo de arado, el tipo de cable y la región, se pueden instalar hasta 200 kilómetros de cable por día. De todos modos, este dato es insuficiente para establecer la duración de cada proyecto. El simple hecho de cargar un barco con el cable de fibra óptica puede demandar entre tres semanas y un mes.

En cuanto al costo de la operación, el “promedio” que he encontrado para un cable transatlántico está en el orden de los 500 millones de dólares. A pesar de este impresionante número, la instalación de cables submarinos sigue siendo más viable que depender de enlaces satelitales, con enlaces más lentos y mayor latencia. Un sistema de cableado submarino puede tener más de una docena de “dueños” entre empresas de comunicaciones y otros grupos. Y más allá de la inversión inicial, los cables no son eternos, ya que algunos quedan obsoletos frente a otras instalaciones más modernas. [5]

Veamos con una animación como es el proceso de instalación de un cable submarino de fibra óptica

Actividades:

Como has podido apreciar la fibra óptica es esencial para las comunicaciones, ahora te invito a que veas la siguiente infografia, y con ella resumirás parte de la información que has leído en esta entrada, anota los aspectos mas importantes de ella en tu cuaderno. (Haz click en el enlace)

http://www.consumer.es/web/es/tecnologia/hardware/2008/05/18/176991.php

2. Observa y analiza los siguientes videos:

Fuentes:

(1) http://es.wikipedia.org/wiki/Fibra_%C3%B3ptica

(2) http://platea.pntic.mec.es/~lmarti2/optral/cap2/fibra-2.htm

(3) http://www.pablin.com.ar/electron/cursos/fibraopt/index.htm

(4) http://www.xatakaciencia.com/tecnologia/como-se-fabrica-la-fibra-optica

[5] http://www.neoteo.com/como-se-instalan-los-cables-submarinos#