Hosting y Hsopedaje para webs de Redes de Computadoras

Excelente Hosting gratis con Cpanel

Free Web Hosting with Website Builder
Free Web Hosting with Website Builder
Free Web Hosting with Website Builder

*** 1500 MB of disk space
*** 100 GB of data transfer
*** PHP and MySQL support with no restrictions
*** cPanel control panel
*** Website Builder
*** Absolutely no advertising!

Registrese: http://www.000webhost.com/45259.html

Algunas preguntas disparadoras sobre redes

¿Que es una red de computadoras? ¿Para que me sirve? ¿Es seguro conectar varias maquinas en red? ¿Que se necesita?
Muchas preguntas juntas... vamos de a poco.

¿Que es una red?
El concepto de red no se refiere solamente a la informativa, entendemos por red aquello que nos permite conectar varios elementos de manera tal que ellos puedan interactuar entre si. Por ejemplo hablamos de redes de teléfonos, redes viales, etc.

Redes inalhambricas utilizando luz blanca


Boston College , en virtud de una Fundación Nacional de Ciencias de subvención, para desarrollar la próxima generación de comunicaciones inalámbricas basados en la tecnología de luz visible en lugar de ondas de radio. Los investigadores esperan Piggyback comunicaciones de datos sobre las capacidades de baja potencia diodos emisores de luz, o LEDs, para crear "Smart Iluminación", que sería más rápido y más seguro que la red actual de la tecnología.


Esta iniciativa tiene por objeto desarrollar una óptica de la tecnología de la comunicación que haría una luz LED el equivalente de una conexión Wi-Fi punto de acceso.

"Imagínese si su equipo, el iPhone, la televisión, la radio y el termostato puede comunicarse con todos cuando caminaba en una habitación sólo por flipping la pared y el interruptor de luz sin el habitual grupo de cables", dijo el profesor de Ingeniería BU Thomas Little. "Esto podría hacerse con un LED basada en la red de comunicaciones que también proporciona luz - todos los existentes en las líneas de energía con bajo consumo de energía, elevada fiabilidad y no interferencia electromagnética. En última instancia, el sistema se espera que sea aplicable a partir de los dispositivos de iluminación, al igual que el intercambio las bombillas de LED.
Universidad de Boston investigaciones se centrarán en el desarrollo de aplicaciones de las redes de computadoras, en particular la de estado sólido tecnología óptica que forma la columna vertebral de la red.

"Esta es una oportunidad única para crear una trascendente que la tecnología no sólo permite la iluminación energéticamente eficiente, pero también crea la siguiente generación de comunicaciones inalámbricas seguras," Little añadió. "Como cambiar de incandescentes y fluorescentes compactas a la iluminación LED en los próximos años, podemos construir simultáneamente una forma más rápida y segura infraestructura de comunicaciones a bajo coste, junto con nuevas e inesperadas aplicaciones".

Poco prevé interiores óptico inalámbrico de comunicaciones que utilizan los sistemas de iluminación LED de color blanco dentro de una habitación - similar a la televisión dispositivo de control remoto - para proporcionar conexiones a Internet a las computadoras, asistentes digitales personales, la televisión y la recepción de radio, conexiones telefónicas y de control de la temperatura del termostato.

Con una amplia iluminación LED, una vasta red de luz basados en la comunicación es posible, señaló poco. Un dispositivo inalámbrico a la vista de un LED podría permitido enviar y recibir datos, aunque el aire - inicialmente a velocidades de 1 a 10 megabits por segundo rango - cada uno con LED que actúa como un punto de acceso a la red. Esta red tendría el potencial de ofrecer a los usuarios un mayor ancho de banda actual de la tecnología RF.

Además, desde esta luz blanca no penetrar en las superficies opacas, tales como muros, hay un mayor nivel de seguridad, tal como se escucha no es posible. También luces LED consumen mucho menos energía que la tecnología RF, ofreciendo la oportunidad de construir una red de comunicación sin adición de los costos de la energía y la reducción de las emisiones de carbono en el largo plazo.

La capacidad de convertir rápidamente las luces LED y fuera - tan rápido el cambio es imperceptible para el ojo humano - es la clave para la tecnología. El parpadeo de luz en los patrones permite la transmisión de datos sin ningún cambio notable en la sala de iluminación. Y la tecnología no se limita a las luces interiores; su primera prueba real puede muy bien venir al aire libre, en la industria del automóvil.

"Esta tecnología tiene muchas implicaciones para la seguridad del automóvil", dice Pequeño. "Luces de freno ya utilizan LEDs, por lo que no se extienden a un conjunto un automóvil con un sensor que detecta las luces de freno del coche en frente de ella y ya sea un atento alertas conductor frena o activa el auto."

La Necesitad de Mantener la Red Libre


Si no luchamos ahora por mantener Intenet libre del control de las ISP, pronto podremos estarnos encontrando con anuncios de este tipo

Firefox también permitirá navegar por la Red de manera privada

Una de las funciones que Firefox no incluyó en su última edición fue la navegación privada. Microsoft, a través de la versión de prueba de Internet Explorer 8 y Google, con Chrome, adoptaron la funcionalidad que permite recorrer la red sin dejar rastros. Safari, de Apple cuentan con una utilidad similar.

En el sistema de navegación privada, que permite visitar por sitios ilegales y pornográficos sin dejar rastro, las páginas revisadas no quedan en el registro del computador. Además, las palabras buscadas no son recordadas por el programa.

Otra gracia de este recurso es que permite mejorar la seguridad al momento de realizar transacciones electrónicas.

El cambio se podrá notar en la próxima gran actualización que realice el programa.

Tecnologia de ahorro de ancho de banda en paises en desarrollo

Científicos y expertos en computación en Pakistán han desarrollado un concepto tecnológico que pretende aumentar la velocidad de transmisión de datos, sin tener que invertir en costoso equipos.

Básicamente es crear un Súper Cache distribuido entre miles de computadoras y redes alrededor del mundo.

En los países desarrollados, los proveedores de Internet crean un cache local de la Web con miles de sitios predeterminados según su popularidad y su frecuencia de acceso.

Estos datos los van almacenando en sus servidores. Esto puede significar un ahorro de entre el 30% a 40% del ancho de banda, ya que al estar la información localmente almacenada, no se requiere de “salir” a buscar los datos nuevamente a su fuente original. En otras palabras, ahorra dinero y aumenta la velocidad para los usuarios finales.

Inspirado en la idea del protocolo BitTorrent, cuando un usuario trata de accesar un sitio en Internet o trata de bajar un archivo en particular, un programa cliente instalado en su computadora, verifica primero en el cache de la red peer-to-peer para ver si esos datos están disponibles en alguna parte, en otras redes o computadoras de los participantes en este proyecto, antes de salir a la fuente a buscarlos.

La gracia de este proyecto es que existan cientos de miles, de “nodos” en todo el mundo sobre redes con ancho de banda disponible, capaces de donar ancho de banda para así alimentar digitalmente a las computadoras y redes menos afortunadas.

Este proyecto resulta util y sencillo a la vez.

fuente en ingles:

- Pakistani scientists have a way to boost download speeds. (Technology Review)
-
DonateBandwidth

Rusia y Georgia: los principios de una guerra cibernetica

Aunque la invasión Fisica de Georgia ha cosechado gran parte del titular del espacio dedicado a los dos países, pero el conflicto está aún más candente en el ámbito cibernético. Los ataques contra el georgiano Mikheil Saakashvili en su página web primero se produjo a finales de julio, pero se reunieron relativamente poca atención. Investigadores de los Estados Unidosa (US-CERT) supervisó los ataques, y afirmó que no parece ser una prueba para un gran asalto.

Independientemente de esos ataques y la situación actual están directamente vinculados o no, el mismo grupo puede ser responsable en última instancia de ambos. El blog RBNExploit reclama funciones no oficiales de noticias del Ministerio georgiano de Relaciones Exteriores, y ha lanzado un servidor de enrutamiento mapa reclamaciones demuestra que las pruebas de malversación de Rusia.

En el siguiente mapa se muestra el ruso servidores basados en AS12389 Rostelecom, AS8342 RTCOMM, y AS8359 COMSTAR, controlando todo el tráfico de Georgia la clave de servidores. Por ejemplo aquí AS28751 CÁUCASO NET AS Cáucaso Red de Tbilisi, Georgia & AS20771 Deltanet sistema autónomo Deltanet ltd 0179 Tbilisi Georgia.

"Incluso el turco (a menudo controlados RBN) AS9121 TTNet servidor está siendo bloqueado a través de COMSTAR, entendemos a través de colegas en Estambul, las autoridades turcas están tratando de recuperar el control de estos servidores y ofrecer rutas directas a Georgia."

El grupo afirma que los sitios web oficiales de Georgia no se puede confiar, y que los sitios web del país están ahora bajo control externo. De ser cierto, resulta mucho más difícil para otras naciones y las fuerzas de mantenimiento de la paz para lograr una comprensión adecuada de lo que está sucediendo dentro de Georgia. Ambas partes convienen en que la capital separatista de Osetia del Sur, Tskhinvali, ha sido destrozadas, pero Georgia culpa a Rusia de "uso desproporcionado de la fuerza", mientras que los rusos de Georgia culpa bombardeo de la ciudad.

Hasta el momento, la información procedente de Georgia se ha deformado. CNN informa de la incertidumbre en cuanto a la cantidad de aviones ruso se han derribado, y cierta confusión con respecto a bajas tanto militares como civiles . Si Rusia (o la RBN que actúen en nombre de Rusia) es el esta detras del bloqueo sobre Georgia de acceso a Internet, puede marcar la primera vez que un gobierno ha desplegado simultáneamente acciones cyberneticas militares en un ataque contra otro país, y con gran éxito.

Bien dice el dicho: "Guerra avisada no mata gente". Tendremos una nueva generación de geeks?

El fin de la neutralidad en la Red: 2da parte

¿Por qué se volvió importante?

El debate cobró importancia con la discusión en el Congreso Norteamericano sobre la Communications Opportunity, Promotion and Enhancement Act de 2006 (COPE Act), que reformaría la existente Telecomunications Act de 1996 que regula el mercado de las telecomunicaciones en el país del norte.

Según explica Microsiervos, la COPE Act pretende, al menos sobre el papel, y entre otras cosas, abrir de nuevo el mercado e intentar conseguir que bajen los precios de las suscripciones a servicios de televisión por cable y banda ancha en los Estados Unidos.

Además, y acá viene lo interesante, en el debate parlamentario algunos políticos han intentado añadir a esta ley provisiones que eviten que los operadores de telecomunicaciones puedan discriminar cierto tráfico o a usuarios de sus redes en función de sus intereses y mantener de esta forma la neutralidad de la red. Y acá empezó todo.

En la práctica, todo esto significa que el no establecer en forma expresa el principio de la neutralidad de la red en la regulación legal podría permitirles a estos holdings discriminar y decidir qué tipo de paquetes tendrán prioridad en las comunicaciones en la red y cuales no. Y esto asusta con razón a los proveedores de contenidos. ¿Qué podría impedir por ejemplo que los telecos ofrecieran baja velocidad para las comunicaciones IP, como por ejemplo, Skype? Lo que es en absoluto una divagación considerando la conformación de los telecos como compañías de telecomunicaciones y telefonía, por ejemplo.

Uno podría pensar que todo esto es el futuro, y que desde la remota latinoamérica no deberíamos preocuparnos de estas peleas de perros grandes. Pero se hace complejo sostener esto como una potencialidad, como algo que podría pasar cuando ya hoy mismo tenemos ejemplos en que los telecos han tomado medidas ante algunos proveedores de contenidos. Cox Communications es uno de los ISPs más importantes de Estados Unidos en accesos de banda ancha con más de 6 millones de usuarios y como ellos mismos sostienen además de proveer de acceso a Internet tiene “extensos intereses en periódicos, estaciones de televisión y radio, sitios de Internet y subastas de automóviles a través del país”. Otro dato: las principales fuentes de ingreso de Cox son avisos clasificados en sus diarios, anuncios en sus redes y subastas. ¿Suena conocido?
Resultado obvio: los clientes de Cox no pueden acceder ni a Craiglist ni a Ebay, dos de sus mayores competidores en cuanto a subastas en Estados Unidos.

Hoy es una lucha que tiene principalmente dos frentes. Uno, a nivel de mega empresas de tecnología, donde se agrupan quienes pretenden la neutralidad y quienes pretenden una Internet totalmente desregulada. El otro nivel es quizás menos glamoroso, pero no menos relevante, porque al final todo esto se refiere a nosotros. Organizaciones de la sociedad civil se han comenzado a organizar en Estados Unidos para armar revuelo respecto de lo importante que es todo esto para los consumidores y generando conciencia de la importancia que tiene tener algo que decir en todo esto. Eso ha llevado a figuras como el músico Moby a grabar una serie de videos explicando en forma didáctica en qué consiste la neutralidad tecnológica y cuáles son los problemas de darles el control a los telecos.

Y el debate en ambos niveles tiene también repercusiones transversales. Así, por ejemplo, hace algunas semanas CNN publicó dos columnnas sobre la neutralidad de la Red, una a favor escrita por Craig Newmark (Craigslist) y otra en contra escrita pro Mike McCurry, consejero de telecomunicaciones en su empresa Public Strategies Washington Inc. y antiguo jefe de prensa de la adnministrtacion Clinton. Esto se explica porque muchos aún no toman parte en este interesantísimo y complejo debate, a pesar de saber qué es lo que está en juego.

Como de costumbre Marta Peirano grafica muy bien todo esto:

Las proveedoras viven de los contenidos y no al revés. Cuando McCurry habla del “gran paso” que tiene que dar la WWW se refiere al paso que dan las telecos hacia el negocio de contenidos, donde no les interesa competir con empresas ya establecidas ni con los generadores de contenidos independientes (esto es, nosotros) en un terreno neutral. ¿Donde deja eso a todas las incitiativas no comerciales, a los espacios de noticias independientes, a los recursos comunitarios? ¿Pueden competir las comunidades de software libre, las organizaciones sin animo de lucro o los servicios de asistencia gratuita con Microsoft o El Corte Ingles? ¿Puede competir indymedia con la CNN?

¿El futuro?

La guerra está declarada tanto a nivel legislativo como a nivel comunicacional y probablemente quien gane sea no quien tenga las mejores razones, sino quien tenga el dinero para pagar los suculentos lobbys que en estos momentos se están desarrollando en el Congreso norteamericano. Tanto Ebay como Google por su parte también son parte de esta gigantesca campaña mediática de concientización respecto de la neutralidad de la red, teniendo Google una posición bastante clara y agresiva al respecto:

Google confirmó a los reporteros que si los proveedores de banda ancha abusan su posición de mercado iniciarán acciones legales anti-monopolio.

Vint Cert: “si los legisladores insisten en la neutralidad, seremos felices. Sino… seremos menos felices pero tendremos que empezar a ver si hay abusos o no…”

Otro que intervino fue Tim Berners-Lee, uno de los padres de Internet, diciendo

Si pago para conectarme a Internet con una cierta calidad de servicio, y tú pagas para conectarte con esa o con una calidad de servicio superior, entonces podemos comunicarnos a ese nivel.

Eso es todo. Corresponde a los proveedores de acceso asegurarse de que todo funciona de tal modo que eso ocurre.

La Neutralidad de Internet no es pedir que sea gratis.

La Neutralidad de Internet no es decir que uno no debería pagar más dinero por un servicio de alta calidad. Siempre lo hemos hecho, y siempre lo haremos.

Como explica Ignacio Escolar, a estas alturas los planteamientos de Barners Lee están teniendo los mismos efectos que tuvieron en su momento los de Guillermo Marconi, creador de la radio. Luego del desastre del Titanic, donde se le atribuyó responsabilidad a los problemas de comunicaciones, Marconi declaró ante el Congreso y defendió un modelo de radio libre y democrática, sin más normas que las técnicas, abierta a todos. El resultado es conocido.

Muchos pueden perderse simplificando la discusión entre quienes quieren regular la red y quienes no quieren regular. Pero mírenlo de la siguiente forma: Internet se ha transformado en una de los inventos que más ha cambiado nuestros paradigmas comunicacionales desde la imprenta. Pero además ha cambiado paradigmas de negocios, y las empresas de telecomunicaciones se han percatado que muchas empresas han logrado éxito inusitado sólo a partir de Internet, y eso es algo que les parece injusto y quieren su tajada de beneficios. Su argumento parece muy simple, y como sucede en casi todo tipo de argumentos que se ven simples, son errados: la comunicación fluye a través de mis redes y me la están colapsando. Para defenderlos a ustedes, queridos consumidores, tenemos que hacer algo. Lo que pasa al fondo del estanque es que como señala Enrique Dans, Internet se transformó en algo tan grande que los telecos no quieren dejar de controlarlo. Y ese control, a la larga, no es un control de material, es un control de contenidos.

El debate que estamos presenciando no es un debate solamente respecto de modelos de negocios, de regulación de la red o de mega consorcios preocupados por los avances de sus nichos corporativos. Es decir, también lo es. Pero más que eso es una lucha por la libertad de expresión, por la forma en que queremos que Internet se siga desarrollando en el futuro. Algunos quieren que se desarrolle pidiéndoles permiso o pagándoles adicionalmente. Otros, creemos que el invento más revolucionario de la historia debe ser una plataforma para la libertad de expresión, y para todas las otras libertades ciudadanas en juego. Y eso no siempre significa libertades para las empresas.

Señores, las cartas estan sobre la mesa. Que cada uno tome la mejor decisión.

El fin de la neutralidad en la Red: 1ra parte

Si yo les dijera que en estos momentos existen altas posibilidades que Internet cambie y deje de ser esta mega red de computadoras interconectadas en condiciones de igualdad, probablemente muchos pensarían que el autor de este blog se ha creído una de las miles de cadenas que circulan vía email en Internet. Lamento, mis amigos, decirles que no es el caso.

Cuando artistas como Moby o Alissa Milano (?) se hacen activistas y comienzan a defender ideas en torno a la Internet y de cómo se puede ver amenazada ante determinadas regulaciones, uno debe tomar algunos recaudos y ver qué es lo que se teje detrás de todo esto.

Es lo que intentaremos en este post en dos entregas. Hablar sobre la neutralidad de la red. Qué es, cuál es el problema y -sin pretender ver más allá de lo que podemos suponer- qué nos depara el futuro.

¿Qué es la neutralidad de la red?

Cuando comenzó la gran explosión de las conexiones a Internet a nivel de hogares, era fácil enumerar las maravillas que traía consigo este invento: ser una espectacular herramienta de comunicaciones inmediatas, permitir el acceso a una cantidad de información ni siquiera imaginable antes, eran sólo algunos de los beneficios que incluso nos era difícil de asimilar todo esto como un hecho, como una realidad. Hoy, es fácil encontrar a gente hablando de los beneficios de la red, y cada día nos asombramos con las posibilidades de desarrollo de Internet como plataforma de negocios y también como una oportunidad única en la historia para la libertad de expresión.

Internet es básicamente una gran red de computadores interconectados gracias a protocolos inventados en los años 70 (HTTP, FTP, POP, etc, etc, etc.). La neutralidad entonces se refiere a que estos protocolos sólo se encarguen de llevar la información eficientemente de un punto a otro sin discriminar respecto del contenido o de la información que circule. Existe, entonces una neutralidad denominémosla técnica.

La neutralidad de la red es uno de los grandes principios sobre los que se ha construido la Internet. Y se expresa básicamente en que todo lo que se transmite en la red se transmita de la misma forma, sin discriminar ni distinguir el contenido de los paquetes.

Pero los cambios en la concepción de la red traen también consigo otros cambios. Y estos cambios comienzan con las grandes fusiones corporativas. El día que comenzaron en Estados Unidos las fusiones entre empresas de telefonía y empresas de cable, las cosas comenzaron a ponerse complejas y se comenzó a poner en duda este principio fundamental de la neutralidad de la red. La moraleja es que cuando los intermediarios pretenden tomarse por asalto la configuración de la Internet, las cosas pueden ser peor.

¿Cuál es la pelea?

Hoy la gran pelea se está dando en el Senado norteamericano entre dos tremendos grupos de poder. Por un lado, los conocidos como “telecos“, empresas de telecomunicaciones (AT&T, Verizon y Comcast) y por otro lado los proveedores de contenidos en la red, comandados entre otros por Google, Yahoo y -glup- Microsoft.

Los primeros, basados en la frase “Hand Off the Internet”, apoyan una versión abiertamente libertaria de la regulación de Internet, sosteniendo principalmente dos ideas (en sus palabras):

1.- Apoyo a un acceso a Internet no regulado en el que sean los consumidores, no el gobierno, quienes escojan qué es lo mejor para ellos.

2.- Oposición a los intentos gubernamentales de regular o agregar impuestos al contenido de la red o al comercio en ella.

3.- El crecimiento progresivo de Internet llevará en el corto tiempo a colapsar los sistemas, y alguien tiene que pagar por ello.

En palabras de uno de los mandamases de Verizon,

Los que montan las redes están gastándose una fortuna en construir y mantener las redes que Google pretende usar con nada excepto servidores baratos. Está disfrutando de comidas gratis que deberían, bajo cualquier punto de vista lógico, ser las comidas de los que ponen la infraestructura.

Por su parte, quienes creen que el principio de neutralidad de la red es uno de los principios fundamentales del crecimiento actual y futuro de la Internet se agrupan en el movimiento Save the Internet y sostienen principalmente que:

1.- La Internet es una gran herramienta de expresión democrática, lo que supone que el Congreso debe garantizar que la información que circule lo haga de manera neutral, sin intervención de los intermediarios.

2.- La Internet ha sido construida hasta hoy a través de ideas cooperativas y democráticas. La neutralidad de la red ha impedido que los proveedores bloqueen o discriminen nuevas ideas económicas, políticas y sociales.

Unos sostienen que la regulación es clave para garantizar Internet como un campo llano para el reforzamiento de la democracia. Los otros, que más regulación significa inmiscuirse en un mercado que no necesita regulación. ¿Quienes son los malos?

Es imporante dentro de todo esto es tener la mente lo más abierta posible. No caer en fundamentalismo y ver todo el campo de acción de esta lucha, para decidir de la manera más racional posible cual es el verdadero enfoque que deseamos que tenga el Internet. Esta, podríamos decir, cae dentro de una batalla épica por el futuro. Lo que el Senado Americano decida sobre este tema sentará un precedente, que puede extenderse a Europa, y el resto del Mundo en muy poco tiempo. Si no apoyamos ahora, cualquier bando que sea, pronto no tendremos un apoyo cuando localmente suframos las mismas consecuencias. El siguiente post tratara la segunda perte de este tema

El cable sobra.Usar las redes wifi para conectar aparatos

Wifi PAN, un sistema que rivalizará con Bluetooth y WUSB, propone una nueva forma de emplear las redes wifi para conectar dispositivos entre sí

A medida que el despliegue tecnológico en hogares y oficinas se hace mayor, la complejidad de las conexiones por alambre crea auténticas e inextricables madejas de hilos conductores que el usuario no sabe muy bien dónde empiezan ni dónde terminan. No es de extrañar por tanto que ante la constatación de las ventajas de la comunicación entre aparatos sin cables los actuales sistemas inalámbricos estén mejorando y a la vez se lancen otros nuevos. Ahora Intel apuesta por un sistema que juega con los puertos wifi de los distintos aparatos para conectarlos con sus periféricos y entre sí. Su nombre: Wifi PAN.

El fabricante de procesadores Intel y la empresa de componentes informáticos Ozmo Devices han desarrollado una nueva aplicación de conexión a las redes wifi, Wifi PAN, que posibilitará la comunicación de dispositivos tales como ordenadores, teléfonos móviles o reproductores MP3 con cualquiera de los artículos periféricos que se suelen usar junto a estos equipos, como ratones o auriculares. Así, los consumidores dispondrán de otra alternativa tecnológica para enlazar aparatos sin cables que será rival del Bluetooth, una tecnología similar ya asentada, y el Wireless USB, que mejora las prestaciones del Bluetooth.

El proyecto de Intel y Ozmo Devices se une a la irrupción del Wireless USB y al hecho de que Sony también desarrolla su propia versión de la conexión inalámbrica, bajo el nombre de TransferJet. Todos estos movimientos demuestran que la unión de todo tipo de equipos sin cables está en auge y que el dominio abrumador del Bluetooth en este campo se puede reducir.

Aprovechar los puertos wifi

Wifi PAN cumple la misma función que el Bluetooth: enlaza diferentes aparatos digitales entre sí, de forma que puedan compartir contenidos o funcionar conjuntamente. Sin embargo, lo original se encuentra en el enfoque. Se quiere aprovechar el gran número de dispositivos que ya cuentan con puertos wifi (portátiles, consolas de videojuegos, móviles, etc.) para conectar también los periféricos que suelen funcionar ahora a través de Bluetooth o mediante un cable USB.

Esta tecnología se complementa con los trabajos de Intel para simultanear el área de conexión a Internet mediante wifi con el área de conexión de periféricos y dispositivos, con la posibilidad de enlazar hasta ocho aparatos a la vez. De esta manera, no sería necesario contar con dos tarjetas inalámbricas y se transformaría el estándar wifi en un comodín de la conectividad inalámbrica. Es decir, un solo puerto inalámbrico en un ordenador, por ejemplo, permitiría tanto la conexión a Internet como el enlace con toda clase de dispositivos periféricos.

A este respecto, ya existen desarrollos similares en algunas impresoras multifunción, que poseen conectividad wifi y utilizan Internet como puente de comunicación para recibir las instrucciones de una red de ordenadores. La ventaja de este sistema es que, además de eliminar los cables, permite compartir sin molestias la misma impresora entre numerosos terminales. Basta con acceder a un servidor de red para pasar los textos o imágenes a imprimir a la impresora.

Los promotores del sistema, que se prevé que se comercialice en 2009, cuentan con la gran ventaja de que Wifi PAN puede funcionar en cualquier dispositivo que tenga un puerto de conexión inalámbrica. Es decir, millones de ordenadores portátiles, consolas de videojuegos o los incipientes teléfonos móviles dotados de esta tecnología estarían ya adaptados. Para lograrlo, han ideado un sistema que sólo exige la instalación de un controlador en el aparato con conectividad wifi, de forma que proporcione la conexión segura con los periféricos.

Desde Intel se asegura que se trata también de un sistema escalable. Es decir, que tiene capacidad para conectar bastantes dispositivos a un solo tiempo por el mismo canal, en realidad una red, sin que se produzcan confusiones o caídas en la comunicación. Por lo tanto, un solo puerto wifi serviría para comunicar el ordenador con todos sus periféricos. Se sabe que la conexión se produce en las bandas de los 2,4 Gigahercios y los cinco Gigahercios.

Por otro lado, sus creadores aseguran que su tecnología consume menos energía que la tecnología wifi convencional, conocida como 802.11, por lo que tratan también de colocarla como una alternativa de bajo consumo para ordenadores portátiles y dispositivos móviles en general. No hay que olvidar que precisamente los puertos wifi activados son uno de los principales factores de consumo de las baterías. Esto supone también alargar la duración de las pilas en los ratones ópticos, los auriculares inalámbricos y otros dispositivos

Más rápido que Bluetooth... de momento

Wifi PAN promete más velocidad de conexión que el actual Bluetooth: 9 Megabits por segundo (Mbps) en el primero por sólo 2,1 Mbps en el segundo. Sin embargo, se prepara el lanzamiento de la nueva versión del Bluetooth, la tres, que se caracterizará por ofrecer mayor velocidad que la precedente y por igualar la anunciada por WUSB, 480 Mbps a 3 o menos metros de distancia y 110 Mbps si se aleja hasta 10 metros. TransferJet, la tecnología de conexión inalámbrica que impulsa Sony, también superará a Wifi PAN, porque llegará en condiciones reales a unas tasas de transferencia de 375 Megabits por segundo

Mejorar el rendimiento de nuestra red wireless

Convivimos hoy en día con las redes wireless. Por esto, veamos como podemosoptimizar el rendimiento de nuestra red wireless.

1. Ubicar el punto de acceso o router wireless en un lugar céntrico
Siempre que sea posible, se debe tratar de colocar el router wireless en una localización céntrica en nuestra casa.
Si por el contrario ubicamos el router wireless cerca de una pared la señal se debilitará más rápidamente.
No te preocupes a priori, si no puedes mover el router a otro lugar, aún hay muchas cosas que se pueden hacer para mejorar.

2. No colocar el router en el suelo, ni cerca de paredes ni objetos metálicos.
El metal afecta considerablemente a la señal, produciendo efectos rebote inesperados.
Los muros, paredes, y suelos pueden afectar de forma similar si en su interior hay mallazo de acero, cosa bastante habitual en la forma de construcción de nuestro país.
Cuanto más cerca esté el router de estos elementos más débil será la señal que parta desde ese lugar.

3. Reemplazar la antena del router
En el 90% de los casos, las antenas que incorporan los routers wireless, son antenas omnidireccionales.
Esto significa que la señal se emite en todas direcciones alrededor de la antena del router. Si nuestro router se encuentra ubicado en una zona cerca de un muro que en
caso de ser atravesado la señal sale de la casa, significa que parte de nuestra potencia de emisión se está desperdiciando. Prácticamente casi ningún router por normativas
puede emitir a más potencia de la establecida, pero lo que sí se puede hacer es cambiar la antena por una direccional que emite en el sentido que nos interesa y reemplazarla
por la antena omnidireccional existente.

4. Reemplazar el adaptador de red del PC
Sustituir el adaptador existente por un dispositivo USB tiene la única finalidad de poder conectar una antena externa también en el dispositivo conectado al PC.
Además normalmente los dispositivos USB disponen de un cable que también nos puede permitir reubicar el receptor-emisor de una forma más óptima.

5. Añadir un repetidor wireless
Los repetidores tienen como finalidad propagar la señal ampliando el rango de cobertura. Prácticamente no requieren de ninguna configuración especial. Conectarse a un repetidor
es básicamente como estarse conectando al punto de acceso o router principal.
Los repetidores al ir conectados a la alimentación tienen una potencia de emisión y recepción mayor que una simple tarjeta de PC.

6. Cambiar el canal wireless
Los routers wireless pueden funcionar como cualquier otro dispositivo en varios canales diferentes. En Estados Unidos y Canadá, por ejemplo el estándar de utilización de canales son el 1, 6, y 11.
Pero en realidad normalmente se puede elegir un canal entre el 1 y el 11.
Cada vez hay más dispositivos que pueden interferir nuestra señal wireless de datos. Probados por mi personalmente he encontrado interferencias en algunos canales con el microondas,
con los dispositivos que permiten enviar la señal de televisión y audio de un punto de la casa a otra, con el mando de la consola Wii, entre otros.
Por tanto si la señal wireless no es buena o se corta regularmente la primera de las cosas a probar es cambiar el canal de emisión.
Este cambio normalmente sólo es necesario hacerlo en el router wireless o punto de acceso, porque los PC’s autodetectan el canal por el que se recibe la señal.

7. Reducir las interferencias wireless
Comentabamos en el punto anterior algunos elementos que podían interferir en la señal, que pueden ser solucionados cambiando de canal.
A estos elementos debemos también sumar los teléfonos inalámbricos. Hemos querido hacer mención especial a estos dispositivos en un apartado posterior porque muchos de ellos, pueden interferir más de un canal y es complicado disponer de una señal limpia si estos teléfonos existen.

8. Mantener el hardware actualizado

Normalmente los fabricantes liberan versiones de los drivers o firmwares de los routers o puntos de acceso wireless. Es importante en cualquier caso mantener el hardware actualizado, en muchas ocasiones por cuestiones de rendimiento de los dispositivos y en otras ocasiones exclusivamente por cuestiones de seguridad.

9. Adquirir productos del mismo fabricante
Aunque es cierto que puedes disponer de un router Linksys y una tarjeta wireless para PC de la marca D-Link, lo cierto es que los fabricantes diseñan tecnologías propietarias para alcanzar en determinadas condiciones velocidades adicionales a las normas standard. Por ejemplo en el caso de Linksys, estos disponen de la tecnología denominada SpeedBooster.
D-Link por el contrario utiliza el turbo 108g mejorado.

10. Actualizar los dispositivos 802.11b a 802.11g u 802.11n
Los dispositivos 802.11b son dispostivos prácticamente obsoletos hoy en día, y por tanto si se piensa en adquirir nuevo hardware con tecnología wireless lo mejor es decidirse por el estándar 802.11g, aunque hoy la norma 802.11n está también cada vez más extendida. Es la tecnología conocida también como MIMO (Multiple Input, Multiple Output). El concepto de transmisión es el mismo, es decir inalámbrico, pero la capacidad de emitir y recibir la señal de forma multiplexada por diferentes antenas, hace que la capacidad de alcance y transferencia de la señal sea mucho mayor.
Por el controario los dispositivos 802.11n aún son excesivamente caros, y sólo se puede disfrutar a pleno rendimiento, si todos los elementos de la red disponen de dicha norma.

monitorizando redes con munin(en linux) Para Debian

  1. ¿Qué es munin?

    Munin es un programa que permite monitorizar uno o varios equipos. Además, presenta la información a través de un servidor web, está hecho en perl y permite el uso de plugins, lo cual lo hace realmente versátil. También muestra una gran cantidad de información mediante unas gráficas creadas con la librería (biblioteca — library) gráfica RRDtool, mucho más chulas y bonitas :).

  2. Instalando munin

    Munin está incluido en el repositorio oficial de debian por lo que sólo hay que actualizar el equipo e instalarlo.


    # aptitude update
    # aptitude install munin # si vamos a emplear el equipo como servidor
    # aptitude install munin-node # si vamos a leer datos de él

    Munin puede usarse para monitorizar uno o varios equipos, por lo que munin-node debe instalarse en los equipos cliente y munin en el equipo que actuará a modo de servidor y que provee de servicio web.

    Una manera rápida de instalar y configurar el programa para un sólo equipo se detalla en el apartado de Enlaces.

  3. Ficheros de configuración

    Munin cuenta con varios ficheros y directorios que hay que conocer.

    • /etc/munin/munin.conf. Es el fichero de configuración general y, más concretamente, donde se configura el lado servidor de munin. En este fichero se especifican los directorios a emplear y la configuración de las diferentes máquinas. Debe estar configurado en el servidor.
    • /etc/munin/munin-node.conf. El fichero de configuración del nodo. Munin ve a cada equipo que monitoriza como el nodo de una red y mediante este fichero se especifica la configuración. Debe existir en cada equipo.
    • /etc/munin/plugins/. Es el directorio donde munin lee los plugins a emplear. Éstos son simples enlaces al directorio real de los plugins (/var/lib/munin/plugins/) y se pueden añadir y quitar de la manera más simple, creando o borrando un enlace.
    • /var/www/munin/. Directorio donde se vuelca por defecto el código HTML generado con los informes. Se puede cambiar en munin.conf. Debe pertenecer al usuario y grupos munin.
    • /var/lib/munin/. Directorio donde se guardan todos los datos de los diferentes nodos y con los que se generan las gráficas.
    • /var/log/munin/. Directorio de registros del sistema o logs. En las configuraciones de red es interesante el fichero munin-nodes.log, que detalla la información enviada y transmitida desde el nodo.
    • /etc/cron.d/munin. Fichero del cron que se ejecuta cada cinco minutos y que actualiza los datos del equipo en la base de datos de munin.
    • /etc/cron.d/munin-node. Fichero del cron que se ejecuta cada cinco minutos y que actualiza los datos de los nodos que estén dados de alta.
    • /etc/init.d/munin-node. Script para reiniciar la solicitud de información a los nodos.
  4. Configurando el servidor

    Editamos el fichero /etc/munin/munin.conf y lo dejamos de la siguiente manera:

    # Example configuration file for Munin, generated by 'make build'
    dbdir /var/lib/munin
    htmldir /var/www/munin
    logdir /var/log/munin
    rundir /var/run/munin
    tmpldir /etc/munin/templates
    #graph_period minute
    #
    [indo.n1mh.org]
    address la.ip.de.indo
    local_address la.ip.de.indo
    use_node_name yes
    #
    [coyote.n1mh.org]
    address 127.0.0.1
    local_address 127.0.0.1
    use_node_name yes

    Aquí se especifican los directorios y ficheros a emplear para guardar los datos (dbdir), los informes generados (htmldir), los logs (logdir), las plantillas html (tmpldir), los semáforos (rundir), etc… También se especifican los equipos que son nodos, es decir, a los que debe conectarse y obtener la información de los plugins.

    Al igual que antes, si no especifico la dirección local (local_address) que tiene el equipo, munin no genera las gráficas, con lo que se incluye la dirección IP por partida doble.

  5. Configurando un nodo

    Editamos el fichero /etc/munin/munin-node.conf y lo dejamos de la siguiente manera:

    #
    # Example config-file for munin-node
    #
    log_level 4
    log_file /var/log/munin/munin-node.log
    port 4949
    pid_file /var/run/munin/munin-node.pid
    background 1
    setseid 1
    host *
    user root
    group root
    setsid yes
    ignore_file ~$
    ignore_file \.bak$
    ignore_file %$
    ignore_file \.dpkg-(tmp|new|old|dist)$
    ignore_file \.rpm(save|new)$
    host_name coyote.n1mh.org
    allow ^xxx\.xxx\.xxx\.xxx$

    Las líneas más importantes de este fichero son las que comienzan con host_name y allow. La primera especifica el nombre con que el servidor identifica a esta máquina y no deberíamos tocarla a no ser que no se reconozcan, pero lo cierto es que nunca me ha funcionado ningún nodo hasta que no he habilitado esta opción.

    La segunda línea especifica desde que dirección IP dejaremos que se conecten, es decir, pondremos la dirección IP del servidor munin. Sin esta configuración no obtendremos más que errores de conexión. Por cierto, hay que escribir la IP como una expresión regular, tal y como se muestra (^ indica el inicio y $ el final de la expresión).

  6. Arrancando munin

    Munin se ejecuta cada cinco minutos como un trabajo del cron. Los scripts están en /etc/cron.d/ y se pueden modificar para que ejecute lecturas cada minuto y así realizar pruebas.

  7. Accediendo a la información

    Simplemente introducimos en el navegador la dirección de htmldir, en este caso file:///var/www/munin/ ó http://localhost/munin si contamos con un servidor web.

Storm, una red a la par de cualquier supercomputadora

La red zombi Storm tiene mayor capacidad de cálculo que los 10 superordenadores más potentes del mundo.

Diario Ti: El catedrático de informática Peter Gutmann, de la Universidad de Auckland, Nueva Zelandia, considera que la red de computadoras zombi Storm, controlada por desconocidos, dispone de mayor capacidad de cálculo que las 10 mayores supercomputadoras del mundo en su conjunto.

En un informe titulado "La supercomputadora más potente del mundo está en línea", Guttman se basa en cálculos hechos por expertos en seguridad TI, según los cuales la red Storm consiste de 1 a 10 millones de computadoras infectadas.

La red storm es una red P2P, sin una central de comando visible. Este factor ha hecho que sea muy difícil neutralizarla. La red crece inexorablemente debido a que sus autores distribuyen grandes volúmenes de spam que incluyen el gusano Storm. Cada computadora infectada pasa a engrosar las filas de zombies de Storm.

Mientras que la red Storm cuenta con un máximo de 10 millones de procesadores, el superordenador de IBM, Blue Gene/L, que preside la lista Top 500, “solo" tiene 128.000 procesadores. La superioridad de memoria de Storm es prodigiosa: 1 a 10 petabytes, considerando que cada uno de los PC tiene alrededor de 1 GB en RAM, contra 32 terabytes para la mayor supercomputadora del mundo.

El experto en seguridad informática Lawrence Baldwin, de myNetWatchman.com, comentó a la publicación Washington Post que llama la atención que las autoridades no dediquen mayores recursos a detectar a los responsables de la red zombi. Baldwin considera que tal desinterés puede deberse a que quienes controlan la red se han abstenido de realizar ataques espectaculares, aunque han realizado varios ejercicios a gran escala. Según algunas fuentes, se trataría de "ejercicios precursores del gran ataque".

P2P en peligro en Europa




La libertad y el anonimato que existe actualmente en torno a la capacidad de las redes para que los usuarios puedan intercambiar datos, en forma de archivos y documentos , puede sufrir un duro revés el próximo otoño.

Ayer, en la sede del Parlamento Europeo en Estrasburgo, se celebró la reunión de la Comisión de Mercado Interno y Protección del Consumidor (IMCO) un abanico de directivas sobre telecomunicaciones, redes electrónicas y protección de los consumidores, cuenta con más de 800 enmiendas, donde han destacado principalmente tres que pretenden modificar el papel neutral de la Red en Europa,.

Avisos a los usuarios

Según sus detalles, estas enmiendas permitirían a los gobiernos establecer medidas técnicas para que los ISP puedan controlar los contenidos que se intercambian los usuarios de sus redes. Así, se podría llegar a admitir que los proveedores puedan ponerse en contacto con sus clientes para advertirles sobre las descargas de contenidos ilegales. Además, según estas enmiendas, los ISP podrían reducir la calidad de sus servicios con el fin de hacer inservibles las redes de intercambio de datos. En Francia, por ejemplo, se permite cortar el acceso a Internet a los usuarios que descarguen archivos considerados ilegales, o en Inglaterra, donde se ha amonestado a usuarios que descargaban música a través de la Red.

ISP,policías de la Red

Más allá de lo que se decida en el Parlamento Europeo, la legislación de cada país determina lo que puede ser señalado como actividades ilícitas en la Red, en cuanto al intercambio de datos. En un primer momento, aunque el operador es capaz de conocer la cantidad de datos que un usuario intercambia con el uso de programas o la navegación por la Red, requerirá de un control mucho más exhaustivo de las actividades del usuario el poder determinar cuál es la naturaleza de esos datos.

El camino de estas enmiendas hacia el Parlamento Europeo ha sido especialmente seguido y criticado en Internet, por comunidades como BarraPunto

Desde que se conoció la propuesta del eurodiputado Malcolm Harbour, éstas recibieron rápidamente en la Red el nombre de enmiendas-torpedo, refiriéndose a su carácter destructor de la neutralidad de Internet.

Además, desde la Asociación de Internautas y otras comunidades y foros se ha instado a los usuarios a realizar el envío masivo de mensajes de correo electrónico a una larga serie de eurodiputados, con el fin de que éstas no lleguen a aprobarse después del verano en el Parlamento.

Esto da un serio aviso del peligro que corre la gran Red, de dejar de ser un paraiso donde la información ha sido hasta ahora lo suficientemente libre para desafiar controles de parte de diversos organismos.

Ataques de Hackers a redes informaticas

Estos actos delictivos se han vuelto tan comunes que los usuarios no tienen una manera confiable de saber qué lugares se pueden visitar con seguridad

La noticia del ataque más reciente provino de Finjan, una firma de seguridad israelí, que reportó que el mes pasado encontró un gran archivo de información, que incluía registros médicos y financieros y correos electrónicos de negocios, en un servidor de redes de computadoras en Malasia.

Leer Proliferan ciberataques contra sitios web

Red de Computadora Video Tutorial

Red de Computadora Video Tutorial

Como Conectar dos LAN a 500 Metros inalambricamente?

Conexion de redes inalambricas
Fuente: Conectar dos LAN a 500 Metros inalambricamente?

Duda:Resulta que dos redes alambricas LAN estan a 300 o 400 metros de distancia, una tiene internet infinitum y quiero que se unan en red y que las dos tengan internet,

Se supone que me dijeron que con dos acces point de buen alcance se puede, y si se que hay acces point de hasta 300 mentros, pero como comunicaria las LAN ,

Me dijeron que configurando cada accs point como bridge y asignandoles la dierccion mac del otor acces point, pero en primera no se como se hace eso, y si asi nada mas y a la segunda lan eciiria la señal de red y el internet?

Solucion:

Deberias puentear las conexiones de los puntos de acceso y claro poner otro punto de acceso en medio para que pueda llegarte señal de la conexion, porque es muy complicado que los puntos de acceso superen los 200 metros, a no ser que sea a "campo abierto".



Fuente: CConectar dos LAN a 500 Metros inalambricamente?