jueves, 6 de noviembre de 2014

martes, 4 de noviembre de 2014

Interfaz Cerebro - Computadora (ordenador) - Sistemas de computo aplicados a la Ingenieria Biomedica

El cerebro, como elemento principal del Sistema Nervioso Central, es el órgano de nuestro cuerpo donde radica nuestra voluntad. Hasta hoy, estamos acostumbrados a interaccionar con las máquinas a través de botones que presionamos, normalmente con los dedos. La orden de mover el dedo hasta el botón emana del cerebro, así que podemos decir que la interacción en última instancia siempre se ha establecido entre ordenador y cerebro, pero de forma muy indirecta. La interfaz cerebro-ordenador pretende eliminar estos pasos intermedios y establecer una comunicación directa entre máquina y cerebro.
Suena a algo muy futurista. Es posible que muchos de vosotros no hayáis oído hablar de forma seria de todo esto. Pero lo cierto es que en la comunidad científica es un tema que en los últimos años está ganando muchísima importancia. 

El principio básico es más simple de lo que puede parecer. El cerebro está compuesto de un tipo de células llamadas neuronas. De forma extremadamente simplificada, las neuronas se comunican entre si intercambiando iones químicos. Es el intercambio de estas partículas la que permite transmitir información de una neurona a otra. Según el momento y la cantidad de intercambios químicos que sufre una neurona, ésta responde de una u otra forma.
Así es como las neuronas procesan la información, es como un programa extremadamente complejo implementado sobre un ordenador biológico. Por ejemplo, cuanto más frecuentemente se activen de forma simultánea dos neuronas, su conexión se fortalece. Así es como (se cree que) se forman los recuerdos.
Como hemos dicho, los neurotransmisores que atraviesan las sinapsis son esencialmente iones, partículas con carga eléctrica. Las cargas eléctricas en movimiento producen cierta radiación electromagnética que nosotros podemos medir mediante la instrumentación adecuada. Interfaz cerebro-ordenadorEsto es algo que podemos hacer desde que Richard Caton observó los impulsos eléctricos en la superficie del cerebro vivo de algunos animales en 1875.
En 1924 Hans Berger consiguió registrar por primera vez la actividad cerebral humana, el primer electroencefalograma (EEG). Analizando las señales, clasificó las diferentes ondas cerebrales.
Han pasado noventa años y, aunque hemos avanzado, el principio sigue siendo el mismo. Se trata de colocar unos cuantos electrodos para detectar la actividad eléctrica de un grupo de neuronas. Pueden ser tanto electrodos externos, normalmente colocados en un casco que parece de piscina, o bien implantados quirúrgicamente en el interior del cráneo.
Sin embargo, de saber que unas cuantas neuronas están activas a inferior qué está pensando la persona hay todo un mundo. En la actualidad, el procedimiento aún es bastante rudimentario. Se basa en pedirle al paciente que piense de una determinada forma durante unos instantes, lo que se llama calibración. El software de ordenador que analiza la señal registrada del cerebro hace una “foto” de la actividad cerebral en ese momento. A partir de ese momento, el programa es capaz de detectar ese patrón de activación cerebral cuando el sujeto vuelve a pensar en la misma cosa, y utilizar esa información para ejecutar algún comando pre programado.
Uno de los primeros electroencefalogramas producidos por Hans Berger.
Uno de los primeros electroencefalogramas producidos por Hans Berger.

¿Por qué es relevante todo esto a las víctimas de accidentes de tráfico? Por desgracia, uno de los daños más frecuentes en los accidentes graves es la lesión medular. La médula espinal, situada en el interior de la columna vertebral, es la autopista de la información que fluye del cerebro al resto del cuerpo. Está formada básicamente por neuronas muy largas que transmiten las ordenes del cerebro. Si por culpa de un golpe dicha comunicación se rompe, entonces las señales del cerebro no llegan los músculos y simplemente no podemos controlar a voluntad nuestro cuerpo.
Para estos pacientes, una interfaz cerebro-ordenador puede substituir las funciones perdidas a causa de la lesión medular. Imaginad, por ejemplo, que los comandos que la interfaz es capaz de reconocer en el cerebro se utilizan para dirigir una silla de ruedas eléctrica. O para mover un brazo robótico (o un exoesqueleto situado en su propia mano). De esta forma, las personas con discapacidad pueden recuperar parte de su autonomía.
Tampoco es cuestión de echar ya las campanas al vuelo. La tecnología está aún muy en sus bases. Actualmente solo es posible detectar uno o dos comandos a la vez, y a menudo es necesario re calibrar cada pocos minutos porque las condiciones del cerebro son muy cambiantes. Además, la resolución es aún muy limitada, tenemos que medir la actividad de grupos muy grandes de neuronas especialmente si utilizamos electrodos externos, lo cual impide reproducir movimientos de gran precisión.
Quizá más adelante los pacientes no dudarán en someterse a cirugía para implantarse electrodos internos, mucho más precisos, capaces de una mayor resolución, poniendo al alcance la lectura de regiones cerebrales mucho más profundas. Córcholis, incluso llegará un momento en que los sanos decidiremos implantarnos.
Interfaz cerebro-ordenador
Pese a las limitaciones, hay un gran esfuerzo investigador en este campo, y ya hay prototipos con resultados realmente impresionantes. Es algo que suena a ciencia ficción… hasta que lo ves con tus propios ojos. Sin duda, en la próxima década cada vez empezaremos a ver aplicaciones en la vida real de la interfaz cerebro-ordenador.
Aunque uno de los campos de mayor interés es el que estamos comentando, las tecnologías asistivas para personas con discapacidad, también se atisban aplicaciones para individuos con plena movilidad. Quizá el primer campo en que lo veamos serán los videojuegos, una industria donde ya estamos acostumbrados a ver adelantos en cuanto a las interfaces de control (recordad la revolución del mando de la Wii).
La interfaz cerebro-ordenador es algo realmente prometedor. Tiene el potencial de devolver la independencia a una serie de personas que, hasta ahora, no podían llegar a pensar en recuperarla. No obstante, lo primero en cualquier caso es hacer todo lo posible para evitar verse obligado a ser usuario de estas nuevas tecnologías. La prudencia, el sentido común sigue siendo la mejor opción para mantener todas nuestras funciones intactas.

Sistema Operativo Mac OS X

 ¿Qué es un sistema operativo?
Es el programa, o software, más importante de un ordenador. Para que funcionen los otros programas, cada ordenador de uso general debe tener un sistema operativo. Los sistemas operativos realizan tareas básicas, tales como reconocimiento de la conexión del teclado, enviar la información a la pantalla, no perder de vista archivos y directorios en el disco, se asegura de que los programas y usuarios que están funcionando al mismo tiempo no interfieran entre ellos, y controlar los dispositivos periféricos tales como impresoras, escáner, etc.; el sistema operativo también es responsable de la seguridad, asegurándose de que los usuarios no autorizados no tengan acceso al sistema.
Unas de las características importantes de los sistemas operativos son las siguientes:
·         Un Sistema Operativo (SO) es el software básico de una computadora que provee una interfaz entre el resto de programas del ordenador, los dispositivos hardware y el usuario.
·         Las funciones básicas del Sistema Operativo son administrar los recursos de la máquina, coordinar el hardware y organizar archivos y directorios en dispositivos de almacenamiento.
·         Los Sistemas Operativos más utilizados son Dos, Windows, Linux y Mac. Algunos SO ya vienen con un navegador integrado, como Windows que trae el navegador Internet Explorer.
Clasificación de los sistemas operativos
Los sistemas operativos pueden ser clasificados de la siguiente forma:
·         Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo. Algunos sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo.
·         Multiprocesador: soporta el abrir un mismo programa en más de una CPU.
·         Multitarea: Permite que varios programas se ejecuten al mismo tiempo.
·         Multitramo: Permite que diversas partes de un solo programa funcionen al mismo tiempo.
·         Tiempo Real: Responde a las entradas inmediatamente. Los sistemas operativos como DOS y UNIX, no funcionan en tiempo real.
Cómo funciona un Sistema Operativo
Los sistemas operativos proporcionan una plataforma de software encima de la cual otros programas, llamados aplicaciones, puedan funcionar. Las aplicaciones se programan para que funcionen encima de un sistema operativo particular, por tanto, la elección del sistema operativo determina en gran medida las aplicaciones que puedes utilizar.
MAC OS X
Este es un sistema creado por la compañía Apple el cual está basada en un sistema operativo de interferencia gráfica, este sistema fue diseñado en 2002, y desde entonces se instalaba en las computadoras de Apple. Este sistema fue el sucesor de Mac OS 9 el cual salió al mercado en 1999.
A continuación se presenta una captura de pantalla que aparecía con este sistema operativo, y debajo de este se describen algunas características.

Muchas actualizaciones de este sistema fueron salieron de acuerdo a los años, a continuación se presenta una tabla de las distintas actualizaciones que se le hicieron a este sistema.

Algunas de las diferencias más notorias entre casa versión era que se le añadía una interferencia grafica con el usuario, y cada ventana o texto que aparecía en pantalla usaba una tecnología llamada ‘spatial anti-aliasing  technology’, y versión tras versión se iba mejorando esta tecnología, al igual que los gráficos y las aplicaciones para imprimir y de multimedia se iban mejorando para los diseñadores.
La siguiente tabla muestra una comparación entre diferentes sistemas operativos, tal como Mac OS X, Windows, Linux, y FreeBSD.


Fuentes
http://www.masadelante.com/faqs/sistema-operativo

http://en.wikipedia.org/wiki/OS_X

martes, 14 de octubre de 2014

Tarjetas Gráficas

La tarjeta gráfica tambien es conocida como tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, pero en si es una tarjeta de expansión para computadoras, esta se encarga de procesar los datos provenientes del CPU y los transforma en información comprensible y representable en un dispositivo de salida, tal como un monitor o una televisión.  En otras palabras, la tarjeta gráfica es un componente de un PC diseñado para mostrar imagenes en algun medio de visualización, a continuación se muestra una.

 


En un principio, la tarea principal de las tarjetas gráficas fue la de enviar píxeles a la pantalla, así como también una variedad de manipulaciones gráficas simples:

  • Mover bloques (como el del cursor del ratón)
  • trazado de rayos
  • trazado de polígonos

La mayoria de las tarjetas gráficas son dispositivos independientes conectados a la placa base a tráves de los buses ISA, PCI, VESA o AGP y proximamente el PCI-Expess, pero a manera que las tarjetas se van actualizando ahora hay una gran variedad de tarjetas donde van integradas en la placa base, y estas son capaces de acelerar la creación de imágenes tridimensionales como se ven en los juegos y reproducción de vídeos.

Las tarjetas gráficas integradas producen un rendimiento inferior en relación a las tarjetas gráficas normales, esto se debe a que tienen chipsets mas báratos y comparten la memoria del sistema con la dedicada, asi que para conseguir un rendimiento mas alto, las no integradas son la mejor opción. Estas tarjetas gráficas mas avanzadas, son usadas para mostrar aplicaciones 3D y juegos, estas contienen unos motores de procesamiento llamados GPU's (unidad de procesamiento grafico). Aunque lo normal es que tengan una sola salida, y por lo tanto sólo puedas usar una única pantalla, cada vez es más común ver adaptadores de este tipo capaces de conectarse hasta a cuatro de manera simultanea.

Los componentes de una tarjeta gráfica son:

  • Unidad de procesamiento gráfico ( GPUGraphical Processing Unit),es el corazón de la tarjeta de gráficos y procesa las imágenes de acuerdo a la codificación utilizada, este es  un procesador especializado con funciones relativamente avanzadas de procesamiento de imágenes, en especial para gráficos 3D. Debido a las altas temperaturas que puede alcanzar un procesador gráfico, a menudo se coloca un radiador y un ventilador.
  • Memoria de video, su función es la de almacenar las imágenes procesadas por el GPU antes de mostrarlas en la pantalla. A mayor cantidad de memoria de video, mayor será la cantidad de texturas que la tarjeta gráfica podrá controlar cuando muestre gráficos 3D. El término búfer de trama se utiliza para referirse a la parte de la memoria de video encargada de almacenar las imágenes antes de mostrarlas en la pantalla. Las tarjetas de gráficos presentan una dependencia importante del tipo de memoria que utiliza la tarjeta. Su tiempo de respuesta es fundamental en lo que respecta a la rapidez con la que se desea mostrar las imágenes. La capacidad de la memoria también es importante porque afecta el número y la resolución de imágenes que puede almacenarse en el búfer de trama.
  • El Convertidor digital-analógico de RAM (RAMDACRandom Access Memory Digital-Analog Converter) se utiliza a la hora de convertir las imágenes digitales almacenadas en el búfer de trama en señales analógicas que son enviadas a la pantalla. La frecuencia del 
  • RAMDAC determina a su vez la frecuencia de actualización (el número de imágenes por segundo, expresado en Hercios: Hz) que la tarjeta gráfica puede soportar.
  • El BIOS de video contiene la configuración de tarjeta gráfica, en especial, los modos gráficos que puede soportar el adaptador.
  • La interfaz: Este es el tipo de bus que se utiliza para conectar la tarjeta gráfica en la placa madre. El bus AGP está especialmente diseñado para controlar grandes flujos de datos, algo absolutamente necesario para mostrar un video o secuencias en 3D. El bus PCI Express presenta un mejor rendimiento que el bus AGP y en la actualidad, casi puede decirse que lo ha remplazado.


Las conexiones de una tarjeta gráfica son:

  • La interfaz VGA estándar: La mayoría de las tarjetas gráficas tienen un conector VGA de 15 clavijas (Mini Sub-D, con 3 hileras de 5 clavijas cada una); por lo general estas son de color azul. Este conector se utiliza principalmente para las pantallas CRT. Este tipo de interfaz se usa para enviar 3 señales analógicas a la pantalla. Dichas señales corresponden a los componentes rojos, azules y verdes de la imagen.  
  • Conector VGA
  • La interfaz de video digital (DVIDigital Video Interface) se encuentra en algunas tarjetas gráficas y se utiliza para el envío de datos digitales a los distintos monitores que resultan compatibles con esta interfaz. De esta manera, se evita convertir los datos digitales en analógicos o los analógicos en digitales.
    • Conector DVI
    • Interfaz S-Video: En la actualidad, son cada vez más numerosas las tarjetas gráficas que incluyen un conector S-Video. Esto permite visualizar en una pantalla de televisión lo mismo que se observa en el ordenador. Por este motivo, generalmente se lo suele llamar conector "Salida de TV".


Conector S-Video:

Modelos de tarjetas gráficas según su integración

Discretas. Estas son las más comunes que puedes encontrar en un PC de sobremesa. Se conectan directamente a la placa base a través de un puerto de expansión. Es también común encontrar configuraciones con varias tarjetas como las que puedes conseguir

Integradas en placa base. Muy común en los laptops y netbocks, la funcionalidad ahora nos la da un chip que se encuentra sobre la placa base y aunque pueden contener algo de memoria normalmente usaran la RAM del equipo.

Integradas en el propio procesador. Se encuentran en los nuevos micros los cuales hacen uso de la memoria RAM del equipo. Esta claro que este es el futuro pero estamos ante los primeros pasos de esta tecnología.

Modelos según el cable de conexión al monitor

VGA. Desarrollado por IBM. Muy sensible tanto a interferencias como a la longitud del cable. Su mayor desventaja es que no incluyen la señal de audio. Necesitas un cable adicional para conectarlo a un televisor y ver videos o películas.

DVI. Primer estándar para PC plenamente digital. De esta forma se le hace mayor resistente a las interferencias. Existen varios conectores bajo este nombre con diferentes características y algunos incluso son capaces de llevar audio.

HDMI. Las pantallas de mayor resolución hacen necesario un conector que pueda llevar la señal sin perdidas de calidad. En este caso la señal de audio esta incorporada.

Display Port. Capaz de incluir audio y video. Puede utilizarse para conexionar varios monitores e incluir señales de 3d estereoscópico que no es más que dos señales, una diferente por cada ojo para crear el efecto tridimensional.

Thunderbolt. Esta basado en Displayport, en concreto en el mini display port. Puedes conectar los dispositivos PCI Express externos con las mismas prestaciones que si estuvieran en el interior de la caja.


Las tarjetas gráficas más recientes tienen procesadores fabricados para manipular gráficos complejos en 3D, acontinuacion se muestra un diagrama de estas tarjetas. 


Diagrama de una tarjeta de gráficos

El campo del 3D es bastante reciente, y cada vez más importante, algunas PC cuentan con más poder de cómputo que ciertas estaciones de trabajo. 

En líneas generales, el cómputo de gráficos en 3D es un proceso que puede dividirse en cuatro etapas:

  • secuencia de comandos: presentación de elementos
  • geometría: Creación de objetos simples
  • configuración: transformación de los objetos a triángulos 2D
  • Renderizado: aplicación de textura a los triángulos

Cuanto más rápido la tarjeta aceleradora 3D pueda computar estos pasos por sí misma, mayor será la velocidad con la que se mostrará en pantalla. En un principio, los primeros chips sólo podían renderizar y le dejaban el resto de la tarea al procesador, es por esto que ahora las tarjetas gráficas suelen incluir un "setup engine", que permite controlar los últimos dos pasos mencionados anteriormente. 
Aunque el bus AGP no mejora las imágenes 2D, las tarjetas que utilizan ese bus poseen un mejor rendimiento, esto se debe a que el bus AGP está conectado directamente a la memoria RAM, lo que le causa un ancho de banda mayor al del bus PCI. 

En la actualidad, estos productos de alta tecnología necesitan ser fabricados con la misma calidad que los procesadores, como un ancho de canal de entre 0.25 µm y 0.35 µm.

Como se ha mencionado el mundo de las tarjetas gráficas no solo cambia mucho a traves de los años, estas cambian de mes a mes, por lo que sus precios son muy variables.  Algunos de los factores que  se toman en cuenta para los precios son los siguientes: 

  • Tiempo de duración
  • Por relación de potencia 
  • Tipo de tarjeta gráfica
  • ancho de banda
  • velocidad de texturas
  • antialiasing
  • potencia de procesamiento

Fuentes
http://computadoras.about.com/od/conocer-mi-computadora/a/Que-Es-La-Tarjeta-Grafica.htm

domingo, 28 de septiembre de 2014

Elaboración de cable UTP

Introducción

En esta practica se trabajo con cables UTP, como ya se sabe este tipo de cable es muy utilizado en las redes de computadoras, son muy eficaces y han perdurado por bastante tiempo en su uso. Para ello se hizo esta practica para hacer la instalación adecuada de un conector o jack RJ45 , y poner cada cable diferente de los 6 en el orden que se requiere según el tipo de conexión que se vaya a realizar, directa o cruzado.

Objetivo

El objetivo de esta practica no fue mas que el armado de los conectores RJ45 (jacks) de una manera correcta según los colores, con ayuda de unas instrucciones. Para posteriormente realizar una practica con estos mismos cables pero referentes a la conexión.

Materiales y Herramientas

-Cable UTP (de par trenzado) 
-Conectores RJ45
-Pinza ponchadora

Procedimiento


1. Primero con las ponchadoras se pelo recubrimiento de los cables.
2. Se acomodaron los cables segun las claves de colores correspondientes a cada tipo de conexión.
3. Con la pinza se cortaron los 6 cables en paralelo para que quedara su punta uniforme con todos, ya que si quedaba irregular no encajarian hasta el final cada uno de los cables.
4. Se introdujeron minuciosamente los 6 cables en orden en el conector RJ45.
5. Una vez checado que los cables se encuentren bien introducidos, con las ponchadoras se aprietan las pequeña laminas de fierro al igual que la parte plástica del conector.
6. Finalmente se completo la elaboración de los cables.

Conexion por medio de cable UTP

El objetivo de esta practica era realizar una conexión de dos computadoras por medio de un cable UTP, antes de inicializar con la practica era necesario verificar con un tester que el cable previamente hecho funcionara. Primero se conecto el cable en los dos CPU como se muestra en la siguiente imagen.
Luego se espero a que en el monitor apareciera un mensaje en el lado inferior izquierdo de que se había detectado una conexión. La siguiente imagen muestra el mensaje que apareció en pantalla.
De ahí dábamos click en la parte que dice centro de redes para cerciorarnos que había una red conectada, lo cual si nos mostraba, sin embargo, esta no era identificada, como lo muestra la siguiente imagen.

De ahí dimos click en la parte donde dice editar control de redes ya que no nos aparecía la otra computadora cuando decía que si había una red, después de editar la configuración recargamos las redes y ya aparecía el otro computador, como se puede apreciar.


De ahi dimos doble click en el otro computador para checar los documentos de la otra computadora, lo cual fue posible como se muestra en la imagen.




Conexión inalambrica

El objetivo de esta practica es realizar una conexión inalambrica de dos equipos a través de adaptadores inlambricos, en este caso utilizaremos un router.

Para esto primero fue necesario instalarlo en el equipo, por lo que se debió agregar por medio de los sitios de red del computador, ya que fue agregado, después de esto hay que asegurarse que este activado el modo de compartir datos ya que sino esta activado no se puede realizar la conexión, ya que se esta seguro que si esta activado, cabe mencionar que los pasos descritos anteriormente fueron realizados en los dos equipos. Ahora hay que crear una red inalambrica para que los equipos se puedan conectar, para esto se configuraron las propiedades de las redes del conector y ahora hay que esperar que los dos equipos se identifiquen, estos contienen diferentes nombres pero deben pertenecer al mismo trabajo de equipo, ya que se creo al red inalambrica solo hace falta conectarse a esta red inalambrica para compartir archivos, para esto se deben reiniciar los equipos y después acceder a redes inalambricas disponibles donde debe aparecer la red y de ahí nos conectamos, como se muestra en la siguiente imagen.

En nuestro caso no configuramos que nos pidiera una clave de acceso, este se conectaba al momento de seleccionarlo ya una vez conectados pudimos acceder a los archivos del otro computador.
Para verificar que nuestra conexión fue exitosa accedíamos a símbolo de sistema donde nos mostraba el estado de conexión como se muestran en las imagenes.



jueves, 18 de septiembre de 2014

Tarea Unidad 1

2. Una alternativa a una LAN es simplemente un enorme sistema de compartición de tiempo con terminales para todos los usuarios. Mencione dos ventajas de un sistema cliente-servidor que utilice una LAN.
Este tipo de sistemas es mas barato comparado con otros, y brinda buena conexión y mejores interfaces interactivas. Si se utiliza por medio de un cable largo, es poco probable que la red se caiga si hay alguna pequeña falla.

3. Dos factores de red ejercen influencia en el rendimiento de un sistema cliente-servidor: el ancho de banda de la red (cuántos bits por segundo puede transportar) y la latencia (cuánto tiempo toma al primer bit llegar del cliente al servidor). Mencione un ejemplo de una red que cuente con ancho de banda y latencia altos. A continuación, mencione un ejemplo de una que cuente con ancho de banda y latencia bajos.
Una conexión de fibra óptica puede transferir datos a grandes gigabits/sec de banda ancha y su latencia también es alta dada a que esta se transporta como la velocidad de la luz, en la otra mano, tenemos un módem de 56-kbps que se utiliza con una computadora en el mismo edificio que tiene un ancho de banda bajo al igual que su latencia. 
11. Mencione dos razones para utilizar protocolos en capas.
Usar protocolos en capas ayuda a tener diseños menos complejos y facilitar su manejo, y al momento de estar utilizando capas se puede cambiar los protocolos de los peers, los cuales no afectarían ni a los interfaces ni a los peers.

13. ¿Cuál es la diferencia principal entre comunicación orientada a la conexión y no orientada a ésta?
La diferencia principal entre este tipo de comunicaciones es que una utiliza fases y la otra no, la comunicación orientada tiene tres fases, primero se debe haber una solicitud que se debe aceptar para poder comenzar con la transferencia de datos, y la no orientada simplemente envía los datos.

15. ¿Qué significa “negociación” en el contexto de protocolos de red? Dé un ejemplo.
Se refiere a que los dos lados de la comunicación deben acceder o estar en los mismos términos de como se realizara dicha comunicación. Un ejemplo podría ser en los peers de las capas de protocolos, donde cada capa decide como llevara su conexión la cual no afectara a las otras capas. 
18. ¿Cuál de las capas OSI maneja cada uno de los siguientes aspectos?:
(a) Dividir en tramas el flujo de bits transmitidos.
Capa de enlace de datos 

(b) Determinar la ruta que se utilizará a través de la subred.
Capa de red

19. Si la unidad que se transmite al nivel de enlace de datos se denomina trama y la que se transmite al nivel de red se llama paquete, ¿las tramas encapsulan paquetes o los paquetes encapsulan tramas? Explique su respuesta?
Las tramas encapsulan paquetes, cuando el paquete llega a la capa de enlace de datos este se analiza y la información que trae en el es utilizada como campo de datos de una  trama.

21. Mencione dos similitudes entre los modelos de referencia OSI y TCP/IP. A continuación mencione dos diferencias entre ellos.
Los dos modelos están basados en protocolos de capas, y estos dos modelos cuentan con una capa de conexión, de transporte y de aplicación. La diferencia es que el modelo de los dos cuenta con diferente numero de capas en su protocolo, TCP/IP no tiene capa de sesión o presentación, y  OSI cuenta con conexión orientada y no orientada.
24. Internet está duplicando su tamaño aproximadamente cada 18 meses. Aunque no se sabe a ciencia cierta, una estimación indica que en el 2001 había 100 millones de hosts en Internet. Utilice estos datos para calcular la cantidad esperada de hosts para el año 2010. ¿Cree que esto es real? Explique por qué.
No creo que sea real,aunque es un numero un poco grande se me hace muy poco para el crecimiento del Internet, creo que la taza de crecimiento de este es mucho mayor. 
29. Ethernet y las redes inalámbricas tienen algunas similitudes y diferencias. Una propiedad de Ethernet es que sólo se puede transmitir una trama a la vez sobre una red de este tipo. ¿El 802.11 comparte esta propiedad con Ethernet? Comente su respuesta.
No creo que la comparta, ya que el 802.11 habla acerca de conexiones inalambricas, lo que hace posible la  comunicación de diferentes dispositivos al mismo tiempo, lo contrario de Ethernet. 
30. Las redes inalámbricas son fáciles de instalar, y ello las hace muy económicas puesto que los costos de instalación eclipsan por mucho los costos del equipo. No obstante, también tienen algunas desventajas. Mencione dos de ellas.
Una gran desventaja de las redes inalámbricas es la seguridad, ya que cualquier persona puede "meterse" por así decirlo en la conexión, otra desventaja es la vida de la batería, ya que como la mayoría es móvil estos se descargan muy rápido. 
31. Cite dos ventajas y dos desventajas de contar con estándares internacionales para los protocolos de red.
Una ventaja es que al momento de que todos comenzaran a utilizar los estándares todos se podrían comunicar entre si, y al mismo tiempo su precio seria mas accesible. Como desventaja se puede decir que los compromisos que se debían hacer para lograr esto llegaría a unos estándares muy bajos y poco eficientes, y ya implementando esto seria difícil cambiarlo, y podría llegar a ser obsoleto.

33. Haga una lista de sus actividades cotidianas en las cuales intervengan las redes de computadoras. ¿De qué manera se alteraría su vida si estas redes fueran súbitamente desconectadas?
Mi casa cuenta  con conexión inalambrica, por lo tanto puedo utilizar el Internet en cualquier lugar desde mi dispositivo móvil, nuestra red también permite tener varios dispositivos conectados, por lo tanto diferente miembros de la familia nos podemos conectar al Internet sin problema, y al momento de utilizar la  computadora, la cual esta conectada directamente por medio de cable, no afecta la conexión inalambrica, ni la linea de teléfono. Si estas redes fueran desconectadas si afectaría dramáticamente mi vida cotidiana, por que estoy muy a costumbrada a utilizarla diariamente y me temo a decir que dependo de ellas en cierto nivel, sin embargo, seria posible seguir con la comunicación, tal como se hacia en años anteriores. 
36. Vaya al sitio Web de la IETF, www.ietf.org, y entérese de lo que hacen ahí. Elija un proyecto y escriba un informe de media página acerca del problema y la solución que propone.
No se pudo acceder a la página :(

37. La estandarización es sumamente importante en el mundo de las redes. La ITU y la ISO son las principales organizaciones oficiales encargadas de la estandarización. Vaya a los sitios Web de estas organizaciones, en www.itu.org y www.iso.org, respectivamente, y analice el trabajo de estandarización que realizan.Escriba un breve informe sobre las cosas que han estandarizado.
ISO tiene unos estándares que se concentran en el sector de la salud, que incluyen desde dentistas hasta equipos médicos. Los estándares de esta organización ayudan a mejorar la salud en diferentes maneras tales como en promover la armonización global de practicas medicas, para asegurar que el cuidado medico sera el mismo en cualquier parte; proteger la salud y la seguridad de los pacientes y de los médicos, promover la eficiencia en el cambio de información y la protección de la información del paciente, y mejorar la calidad del cuidado.





Bibliografía 
Tanenbaum, Redes de computadoras. 4ta edición.

martes, 16 de septiembre de 2014

Cuestionario

  1. ¿Qué es la redundancia?
    Se refiere a lo que abunda o es excesivo frente a cualquier cosa o contexto.
  2. ¿Qué es bluetooth?
    Básicamente  es una tecnología de comunicación entre dispositivos de corto alcance.
  3. ¿Cuáles son las principales diferencias entre la tecnología de bluetooth e infrarrojo?
    Sus diferencias incluyen tecnología de transmisión, alcance, la velocidad de transmisión, su ubicación de reparto, y los usos de cada una por ejemplo el infrarrojo es mayormente utilizado en controles remoto, y el bluetooth para auriculares para teléfonos celulares.
  4. ¿Cual es la mínima y máxima distancia que alcanza el bluetooth?
    Mínima: 1 m
    Máxima: 30 m
  5. ¿Qué desventajas tiene el infrarrojo?
    Es  muy sensible, por lo que cualquier movil puede interferir entre el emisor y el receptor, al igual que la luz solar, o alguna otra fuente de luz; su alcance es muy corto, no rebasa algunos metros, la velocidad de trasmisión de datos es muy baja.
  6. ¿Qué es la tolerancia a fallos?
    Se refiera a la capacidad de un sistema de acceder a la información aunque se halla producido algún fallo en el sistema.
  7. ¿Qué características tiene la tolerancia a fallos?
    Este tipo de sistemas guarda la información es mas de un lugar o en un equipo o dispositivo externo  para así poder restablecer todo la información. 
  8. ¿Cómo respaldar la información en una red?
  9. ¿Qué es una red de sensores?
    Es una red de ordenadores pequeños equipados con sensores que colaboran para una tarea en común. 
  10. ¿Cuáles son las características principales de las redes de sensores?
    Topología dinámica, variabilidad del canal, tolerancia a errores,  comunicaciones broadcast, consumo energético ilimitado, entre otros.
  11. ¿Qué es un bus de campo (field bus)?
    Es un sistema de transmisión de datos o información que simplifica la instalación y operación de máquinas y equipamientos industriales, 
    nos permite conectar dispositivos de campo ubicados en plantas industriales, con el fin que conversen entre ellos.
  12. ¿Cuáles son sus ventajas?
    - El control secuencial de las maquinarias o fábricas; donde la protección contra el peligro de explosión no es un factor crítico. Se caracteriza por tiempos de reacción cortos, elevada velocidad de transmisión y longitud de bus de hasta 300 metros.   - El control de procesos; donde la protección contra los peligros de explosión debe ser ¡ntrínsicamente segura. Es posible tener ciclos de tiempo de 100 ms para control y se puede cubrir distancias mayores a 1 500 metros.
  13. ¿Qué es un bus de campo de propietario?
    Son aquellos sistemas que se caracterizan por su restricción :de componentes a los productos de un solo fabricante, por lo tanto, no existe compatibilidad con productos de otros fabricante.   Una de las ventajas principales de estos buses de campo cerrados o propietarios es que tienen bajo requerimiento de configuración y puesta a punto, ya que todos los componentes se obtienen de un solo fabricante y por lo tanto están estandarizados. La desventaja es la dependencia de los productos y precios a un fabricante.
  14. ¿Qué es un bus de campo abierto?
    Los buses de campo abiertos son todo lo contrario. Son sistemas que facilitan la comunicación entre dispositivos de diferentes fabricantes sin necesidad de adaptaciones adicionales. En pocas palabras, los usuarios podrán usar o desarrollar productos basados en estos buses de campo abiertos a un costo razonable y sin mucho esfuerzo. Existe una completa disponibilidad de herramientas y componentes hardware y software.
  15. ¿Qué es el flujo de datos?
    Hay un flujo de entrada que manda los datos desde el exterior del ordenador y un flujo de salida que dirige los datos hacia los dispositivos de  salida.
Fuentes
http://es.wikipedia.org/wiki/Bluetooth
http://es.wikipedia.org/wiki/Tolerancia_a_fallos
http://www.instrumentacionycontrol.net/cursos-libres/automatizacion/curso-supervision-procesos-por-computadora/item/271-los-buses-de-campo-directo-al-grano.html#sthash.IHKX4ekJ.dpuf