martes, 4 de diciembre de 2012

Secion 14 Prospectiva Tecnologica

Prospectiva tecnológica


La prospectiva (proceso) tecnológica es un proceso sistemático que analiza el estado actual y las perspectivas de progreso científico y tecnológico para identificar áreas estratégicas de investigación y tecnologías emergentes en las que concentrar los esfuerzos de inversión y así obtener los mayores beneficios económicos o sociales.
La prospectiva tecnológica están orientadas a un conjunto de técnicas que permiten definir la relevancia de una tecnología en un momento futuro. Una característica principal de la prospectiva es que parte de la existencias de varios posibles futuros (futurables y futuribles) los cuales se enmarcan en un contexto dado, que puede ser bajo la jurisdicción de un país, un sector o una empresa. La finalidad de la prospectiva tecnológica es facilitar la toma de decisiones donde la tecnología constituye un factor cada vez más determinante, y en el que el propio ritmo de cambio tecnológico, cada día más acelerado, incorpora un grado creciente de incertidumbre.
Un análisis de prospectiva tecnológica parte de la identificación del tipo de tecnología que se desea analizar, que habitualmente se engloba en una de las tres categorías siguientes:
Tecnologías claves: son aquellas que tienen un mayor impacto sobre la rentabilidad de los productos o la mejora de la productividad. Su difusión es limitada y su posesión va a condicionar fuertemente la posición competitiva de la empresa.
Tecnologías de base: son tecnologías ampliamente disponibles por las empresas de un mismo sector y suele ser común a todos los productos de una actividad concreta.
Tecnologías emergentes: son aquellas que en una primera fase de su aplicación en la empresa muestran un notable potencial de desarrollo. El nivel de incertidumbre que rodea a estas tecnologías es particularmente elevado.
Esta clasificación esta estrechamente relacionada con el concepto de ciclo de vida de la tecnología, donde se distinguen tres etapas: nacimiento, crecimiento y madurez . El nacimiento se asocia a tecnologías emergentes, el crecimiento a tecnologías claves y, finalmente, la madurez y el declive a tecnologías de base.


Nanotecnología y su impacto para la construcción

Cuando se habla de la Nanotecnología solemos pensar en nano-chips o en aparatos ultra-pequeños que están siendo desarrollados por científicos para la medicina, la lucha contra el cáncer, la bioquímica, la física, etc.

Sin embargo, el sector de la construcción empieza a entrar en el mundo de los avances tecnológicos, y se está empezando a investigar formas en las que la nanotecnología puede aportar mejoras a la construcción de carreteras, puentes y edificios.

En un artículo publicado por Better Roads, Small Science Will Bring Big Changes To Roads (La ciencia "pequeña" causará grandes cambios en las carreteras), y citado por Nanodot, se explica como las actuales investigaciones en polímeros podría llevar a una situación en la que las barreras protectoras en las carreteras arreglen sus propios imperfectos causados por choques de vehículos.

La aplicación de la nanotecnología en las carreteras y la construcción también hará posible identificar y reparar de forma automática, sin intervención humana, brechas y agujeros en el asfalto o en el hormigón, y fabricar señales de tráfico que se limpian a si mismas. Se utiliza la nanotecnología para fabricar acero y hormigón más fuertes. También para la seguridad vial. Por ejemplo en algunos sitios de los Estados Unidos se han colocado nano sensores para vigilar el estado de sus puentes y detectar cualquier anomalía o riesgo.

A pesar de la mala prensa que recibe la nanotecnología de algunos medios, son cada vez más evidentes los avances y las nuevas soluciones hechas posibles por este nuevo fenómeno científico. 

En los próximos 50 años la tecnología cambiará nuestras vidas

BT dibuja los escenarios tecnológicos más plausibles del próximo futuro: será necesaria una nueva mentalidad


En 2046 se habrá consolidado la energía nuclear de fusión, en 2041 existirá una pequeña ciudad en la Luna, en 2036 tendremos el primer ascensor espacial, en 2031 los robots serán más inteligentes que nosotros, en 2026 habrá combates de boxeo entre androides, en 2021 los yogurts nos contarán chistes, en 2016 los coches serán pilotados automáticamente, en 2017 podremos ir de vacaciones a un hotel en órbita, en 2011 los robots cuidarán nuestros jardines, y el año que viene el ordenador ya procesará más rápidamente que una persona. Son algunos de los escenarios elaborados por el equipo de prospectiva tecnológica de British Telecom, que prevé asimismo para 2051 comunicaciones telepáticas generalizadas y la transferencia de la información contenida en un cerebro humano a una máquina. Por Eduardo Martínez.




Ascensor espacial. Erkki Halkka
Ascensor espacial. Erkki Halkka
Las innovaciones tecnológicas que se avecinan en el horizonte de los próximos cincuenta años modificarán de tal manera nuestras vidas actuales que sólo un cambio de mentalidad global podrá asimilarlas. Lo afirma el 2005 BT Technology Timeline, el ejercicio de prospectiva tecnológica elaborado por expertos de British Telecom, que anticipa las posibles innovaciones tecnológicas en campos tan dispares como la salud, la economía, la demografía, la energía, la robótica, el espacio, las telecomunicaciones y los transportes.

Los autores se apresuran a aclarar en toda lógica que los escenarios que dibujan son meras posibilidades, así como las previsibles implicaciones sociales de tales innovaciones. Para dibujar estos escenarios han consultado a expertos de diversos campos de todo el mundo. Con ellos han perfilado un consenso respecto a qué tecnologías tienen más posibilidades de emerger en los próximos años, en qué momento harán irrupción en la sociedad y qué impacto social puede esperarse de ellas.

El resultado son unas mil tecnologías emergentes clasificadas por especialidades y por el período de tiempo en el que supuestamente estarán disponibles para la sociedad, tal como explica BT en un comunicado. Existe una versión panorámica del informe, así como otra interactiva, que resultan muy elocuentes.

Los autores reconocen que muchas de las tecnologías dibujadas parecen de ciencia ficción, pero recuerdan al respecto la tercera ley del escritor de ciencia ficción Arthur C. Clarke, formulada en 1962: Cualquier tecnología suficientemente avanzada es indistinguible de la magia.      

Secion 13 Redes y Telecomunicaciones


Red de telecomunicaciones:



Una red de telecomunicaciones es una colección de terminales, enlaces y nodos que se conectan para permitir la telecomunicación entre los usuarios de las terminales. Las redes pueden utilizar la conmutación de circuitos o la conmutación de mensajes. Cada terminal en la red debe tener una única dirección para que los mensajes o las conexiones puedan ser dirigidas a los destinatarios correctos. A la colección de direcciones en la red se le conoce como el espacio de direcciones.

Los enlaces conectan los nodos entre sí y están construidos sobre una transmisión de red subyacente que físicamente envía el mensaje a través del enlace.
Los siguientes son ejemplos de redes de telecomunicaciones:
  • redes de computadoras
  • Internet
  • la red teléfonica
  • la red global Telex
  • la red aeronáutica ACARS

    Componentes

    Todas las redes de telecomunicaciones se componen de cinco componentes básicos que están presentes en cada entorno de red sin importar el tipo o el uso. Estos componentes básicos incluyen terminales, procesadores de telecomunicaciones, canales de telecomunicaciones, computadoras, y software para el control de las telecomunicaciones.

    • Las terminales son los puntos de arranque y parada en cualquier entorno de red de telecomunicación. Cualquier dispositivo de entrada o salida que se utiliza para transmitir o recibir datos puede ser clasificado como un componente de terminal.[1]
    • Los procesadores de telecomunicaciones apoyan la transmisión de datos y la recepción entre las terminales y los ordenadores, proporcionando una variedad de funciones de control y apoyo. (es decir, convertir los datos de digital a analógico y viceversa)[1]
    • En Un Entorno de Telecomunicaciones los ordenadores estan conectados a través de los medios para efectuar sus tareas de comunicación.
    • El software de control de telecomunicaciones está presente en todos los ordenadores conectados a una red y es responsable de controlar las actividades y la funcionalidad de la red.
    Las primeras redes fueron construidas sin ordenadores, pero a finales del siglo XX sus centros de conmutación fueron informatizados o las redes fueron remplazadas con las redes de ordenadores.

Estructura de la red

En general, todas las redes de telecomunicaciones conceptualmente constan de tres partes o planos (llamados así porque puede considerarse como, y a menudo lo son, superposiciónes de redes separadas):

La red de datos se utiliza ampliamente en todo el mundo para conectar a individuos y organizaciones. Las redes de datos se pueden conectar para permitir a los usuarios un acceso libre de irregularidades a fuentes alojadas fuera del proveedor particular al que están conectadas. Internet es el mejor ejemplo de muchas redes de datos de diferentes organizaciones, todas funcionando bajo un único espacio de direcciones.
Las terminales unidas a las redes TCP/IP son dirigidas mediante las direcciónes IP. Hay diferentes tipos de direcciones IP, pero la más común es la IPv4. Cada única dirección se compone de 4 números enteros entre 0 y 255, por lo general separados por puntos cuando están escritos, por ejemplo, 82.131.34.56.
TCP/IP son los protocolos fundamentales que proporcionan el control y el envío de mensajes a través de la red de datos. Hay muchas estructuras de red diferentes por las que TCP/IP se pueden utilizar para enrutar los mensajes eficientemente, por ejemplo:
Estas son las tres características que diferencian a las redes MAN de las LAN o WAN:
  1. El área del tamaño de la red se encuentra entre las redes LAN y WAN. La red MAN tendrá un área física de entre 5 y 50 km de diámetro.
  2. Las redes MAN generalmente no pertenecen a una sola organización. El equipo que interconecta la red, los enlaces, y la propia MAN suelen pertenecer a una asociación o un proveedor de red que proporciona o alquila el servicio a los demás.
  3. Una red MAN es un medio para compartir fuentes a gran velocidad dentro de la red. A menudo proporciona conexiones a las redes WAN para el acceso a las fuentes que están fuera del alcance de la MAN.

martes, 20 de noviembre de 2012

Secion 12 Hardware y Software


Hardware



El término hardware (pronunciación AFI: [ˈhɑːdˌwɛə] ó [ˈhɑɹdˌwɛɚ]) se refiere a todas las partes tangibles de un sistema informatico; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos. Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora».[2] El término, aunque sea lo más común, no solamente se aplica a las computadoras; del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia poseen hardware (y software)
La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría hacerse entre hardware básico, el estrictamente necesario para el funcionamiento normal del equipo, y complementario, el que realiza funciones específicas.
Un sistema informático se compone de una unidad central de procesamiento (UCP/CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos procesados

Historia

La clasificación evolutiva del hardware del computador electrónico está dividida en generaciones, donde cada una supone un cambio tecnológico muy notable. El origen de las primeras es sencillo de establecer, ya que en ellas el hardware fue sufriendo cambios radicales. Los componentes esenciales que constituyen la electrónica del computador fueron totalmente reemplazados en las primeras tres generaciones, originando cambios que resultaron trascendentales. En las últimas décadas es más difícil distinguir las nuevas generaciones, ya que los cambios han sido graduales y existe cierta continuidad en las tecnologías usadas. En principio, se pueden distinguir:
  • 1ª Generación (1945-1956): electrónica implementada con tubos de vacío. Fueron las primeras máquinas que desplazaron los componentes electromecánicos (relés).
  • 2ª Generación (1957-1963): electrónica desarrollada con transistores. La lógica discreta era muy parecida a la anterior, pero la implementación resultó mucho más pequeña, reduciendo, entre otros factores, el tamaño de un computador en notable escala.
  • 3ª Generación (1964-hoy): electrónica basada en circuitos integrados. Esta tecnología permitió integrar cientos de transistores y otros componentes electrónicos en un único circuito integrado impreso en una pastilla de silicio. Las computadoras redujeron así considerablemente su costo, consumo y tamaño, incrementándose su capacidad, velocidad y fiabilidad, hasta producir máquinas como las que existen en la actualidad.
  • 4ª Generación (futuro): probablemente se originará cuando los circuitos de silicio, integrados a alta escala, sean reemplazados por un nuevo tipo de material o tecnología. [6]
La aparición del microprocesador marca un hito de relevancia, y para muchos autores constituye el inicio de la cuarta generación.[7] A diferencia de los cambios tecnológicos anteriores, su invención no supuso la desaparición radical de los computadores que no lo utilizaban. Así, aunque el microprocesador 4004 fue lanzado al mercado en 1971, todavía a comienzo de los 80's había computadores, como el PDP-11/44,[8] con lógica carente de microprocesador que continuaban exitosamente en el mercado; es decir, en este caso el desplazamiento ha sido muy gradual.
Otro hito tecnológico usado con frecuencia para definir el inicio de la cuarta generación es la aparición de los circuitos integrados VLSI (Very Large Scale Integration), a principios de los ochenta. Al igual que el microprocesador, no supuso el cambio inmediato y la rápida desaparición de los computadores basados en circuitos integrados en más bajas escalas de integración. Muchos equipos implementados con tecnologías VLSI y MSI (Medium Scale Integration) aún coexistían exitosamente hasta bien entrados los 90.


¿Qué es el software?



El software es una producción inmaterial del cerebro humano y tal vez una de las estructuras más complicadas que la humanidad conoce. De hecho, los expertos en computación aún no entienden del todo cómo funciona, su comportamiento, sus paradojas y sus límites.1 Básicamente, el software es un plan de funcionamiento para un tipo especial de máquina, una máquina ``virtual'' o ``abstracta''. Una vez escrito mediante algún lenguaje de programación, el software se hace funcionar en ordenadores, que temporalmente se convierten en esa máquina para la que el programa sirve de plan. El software permite poner en relación al ser humano y a la máquina y también a las máquinas entre sí. Sin ese conjunto de instrucciones programadas, los ordenadores serían objetos inertes, como cajas de zapatos, sin capacidad siquiera para mostrar algo en la pantalla.
Los ordenadores sólo procesan lenguaje binario,2 pero para las personas este no es un modo válido de comunicarse (salvo a nivel sináptico :-). Si bien en los tiempos heroicos de los primeros ordenadores no les quedaba otro remedio que hacerlo, los programadores hace mucho que no escriben su código en lenguaje binario (denominado técnicamente ``código-máquina''), pues es terriblemente tedioso, improductivo y muy sujeto a errores. Hace tiempo que los programadores escriben las instrucciones que ha de ejecutar el procesador de la máquina mediante lenguajes formales, llamados ``de alto nivel'', bastante cercanos al inglés, si bien con rígidas reglas sintácticas que lo asemejan a los lenguajes lógico-formales. Esto facilita enormemente la tarea de escribir programas pero, para que esas instrucciones sean comprensibles para el procesador, deben ser convertidas antes a código-máquina. Esa conversión se realiza cómodamente con programas especiales, llamados compiladores. A lo que escribe el programador se le denomina ``código-fuente''. Al resultado de la ``conversión'' (compilación) en lenguaje-máquina, se le denomina ``código-objeto'', ``binarios'' o ``ficheros ejecutables''. En principio, al usuario común sólo le importa este último nivel, los ``binarios'', pero conviene tener clara la distinción entre fuentes y binarios pues es clave para entender el empeño de los partidarios del software libre en disponer de las fuentes.
Pero el software libre es mucho más que el derecho de los programadores y de los hackers3 a disponer de las fuentes del código: significa también la libertad de copiar y redistribuir esos programas. Esos derechos, o su ausencia, condicionan a cualquiera que use un ordenador y han configurado la industria del software y de la informática tal y como la conocemos hoy día. También ha dado lugar a un movimiento social --el del software libre-- cuya historia reconstruiremos brevemente en las próximas líneas.