viernes, 17 de marzo de 2017

Comunidad virtual

El término comunidad virtual designa a las personas unidas a través de Internet por valores o intereses comunes (por ejemplo, gustos, pasatiempos o profesiones). La meta de la comunidad es crear valores a través del intercambio entre los miembros al compartir sugerencias o consejos o simplemente al debatir un tema.
Establecer una comunidad virtual puede resultar beneficioso para un sitio web ya que una comunidad crea en sus miembros un sentimiento de pertenencia y permite que el sitio web se desarrolle a través de un esfuerzo colectivo.
Más aún, una gran comunidad de usuarios puede tornarse algo positivo para la imagen del sitio porque presenta un factor de atracción y otorga al usuario una sensación de confianza.
Sin embargo, si el ámbito de la comunidad no está correctamente definido, pueden surgir divisiones y frustraciones. En ese caso, la comunidad corre el riesgo de producir el efecto opuesto al deseado, esto es, transmitir una imagen negativa.

Redes sociales
Los humanos siempre nos hemos relacionado por grupos: familiares, laborales, sentimentales, etc. En una red social los individuos están interconectados, interactúan y pueden tener más de un tipo de relación entre ellos.
En la actualidad, el análisis de las redes sociales se ha convertido en un método de estudio en ciencias como la antropología o la sociología. Internet y las nuevas tecnologías favorecen el desarrollo y ampliación de las redes sociales.

Redes sociales en la salud:
Las redes sociales envuelven nuestro día a día y la salud pública quiere exprimir el potencial de estas nuevas herramientas para avanzar y promover una mejor salud. Un grupo de investigadores de la Universidad del Sur de california ha realizado un estudio sobre la nueva tecnología para analizar cómo podrían estimular cambios en la salud.
La mayoría de personas lo llama persuasión, pero los investigadores de la USC están tratando de determinar la "ciencia" detrás de la influencia social que ejerce este tipo de redes. Una mejor comprensión de las interacciones humanas -tanto cara a cara, como 'online' - puede ayudar a prevenir enfermedades, y promover la salud en general, según el estudio cintífico publicado en la revista 'Science'.


Si el objetivo es frenar el consumo de tabaco en una escuela local, o reducir la propagación de enfermedades de transmisión sexual dentro de una comunidad, es importante comprender la estructura social y la dinámica del grupo, afirma Thomas W. Valente, profesor de Medicina Preventiva en la Escuela de Medicina Keck, de la USC. Su investigación se centra en la influencia de las redes sociales y ha recopilado una colección de métodos que utilizan los responsables de salud pública para estimular cambios en el comportamiento, y explica que "la evidencia indica que las intervenciones a través de la red son muy eficaces", aunque también apunta que" la ciencia sobre cómo se pueden utilizar la redes sociales para acelerar un cambio de comportamiento, y mejorar el desempeño organizacional, se encuentra todavía en su infancia". A su juicio la investigación es necesaria para comparar las diferentes intervenciones, y determinar qué es óptimo, bajo qué circunstancias.

La cultura en las redes sociales:
La cultura son las costumbre y tradiciones que un determinado grupo decide adoptar, con la ayuda de la informática estas costumbres y tradiciones pueden ser compartidas con el resto del mundo vía Internet. Otro aspecto importante son las artes, que con el avance de la tecnología puedes realizar diferentes de ellas desde un aparato electrónico, como leer un libro online o crear un dibujo a través de un programa de dibujo.

El entretenimiento En las redes sociales:
Hoy en día más personas están utilizando Internet, y especialmente los medios de comunicación sociales, como una fuente de entretenimiento, en lugar de ver TV o películas, de acuerdo a una nueva investigación que encontró que el 56% de las personas se divierte en Internet, y un 52% lo hace desde teléfonos móviles.
El boom de las redes sociales on-line en los últimos años ha propiciado que los ámbitos de diversión y entretenimiento estén en la actualidad estrechamente ligados a estas plataformas. Las redes han sabido generar un espacio de relación y entretenimiento con nuevas y sugerentes dimensiones lúdicas. Pero en esta cultura de lo ligero, con predominio de lo epidérmico y de lo superficial, caemos en el peligro de olvidar el verdadero fundamento del ocio. El ocio, uno de los pilares de la cultura occidental, etimológicamente proviene del término schola. Afirmación comprensible desde la disyuntiva ocio-negocio, y desde un planteamiento que identifica el ocio con la actividad intelectual. Pretendemos con esta intervención hacer reflexionar a los profesionales y a los actores de la comunicación en general, para potenciar o devolver al entretenimiento su dimensión original, y por ello, estimulante y creativa, parámetros, por otra parte, que bien pueden ser potenciados por las redes sociales. Este sería el ocio verdaderamente peligroso porque no se doblega dócilmente a los vientos de la moda y la conveniencia del negocio

Las noticias en las redes sociales:
Diferentes acontecimientos pasan día a día en el mundo, cada vez más rápido, por eso se han creado nuevas formas de que la información externa pueda llegar más rápido. Las noticias por Internet son muy útiles, sus actualizaciones son más actuales que los demás medios aparte de que puedes recurrir a ellas desde cualquier parte. Aun así, hay que saber que se puede tomar el riesgo de que alguna información no sea verídica.

Beneficios de las Redes Sociales
  • Diluyen fronteras geográficas y sirven para conectar gente sin importar la distancia.
  • Perfectas para establecer conexiones con el mundo profesional.
  • Tener información actualizada acerca de temas de interés, además permiten acudir a eventos, participar en actos y conferencias.
  • La comunicación puede ser en tiempo real.
  • Pueden generar movimientos masivos de solidaridad ante una situación de crisis.
  • Cuenta con dinámicas para producir contenido en Internet.

Riesgos en las redes sociales
  • Menores de edad. A pesar de que varias redes sociales tienen una edad mínima para usuarios, es relativamente fácil falsificar información.
  • Phishing. Existe un gran número de estafas, la mayoría de ellas enfocadas a obtener tu información personal. Por ejemplo, en Facebook está el engaño de “¿estás en este vídeo?”.
  • Privacidad. La información que publicas en una red social debe ser tratada con la importancia de la misma. Información privada como números de teléfono, dirección, correos electrónicos, pudieran ser usados para dañarte si caen en las manos equivocadas.
  • Perfiles falsos. Perfiles en redes sociales de alter-egos son de más comunes de lo que te puedes imaginar. Existen diversas motivaciones para esto, como son robo de identidad.
  • Trabajo. Se discreto con lo que publicas, sobre todo si gente con la que te relacionas en el ámbito laboral es parte de tus contactos en tu red social. Las redes sociales son el paparazzi de la gente normal, ya que a veces hay más información sobre tus actividades de la que desearías.

Redes sociales más conocidas
  • Badoo.- Uso general, muy popular en Latinoamérica.
  • Facebook.- Uso general.
  • Flickr.- Fotografía.
  • Google+.- Uso general (leer más).
  • Hi5.- Uso general, popular en Latinoamérica.
  • LinkedIn.- Redes profesionales (leer más).
  • MySpace.- Uso general.
  • NowPublic.- Noticias sociales generadas por usuarios.
  • Reddit.- Noticias sociales generadas por usuarios.
  • Sonico.com.- Uso general, popular en países de habla hispana.
  • StumbleUpon.- Páginas en Internet con un interés en específico.
  • Taringa!.- Uso general.
  • Twitter.- Uso general.
  • YouTube.- Vídeos.

viernes, 3 de marzo de 2017

TOPOLOGÍA

La topología de red se define como el mapa físico o lógico de una red para intercambiar datos. En otras palabras, es la forma en que está diseñada la red, sea en el plano físico o lógico. El concepto de red puede definirse como "conjunto de nodos interconectados". Un nodo es el punto en el que una curva se intercepta a sí misma. Lo que un nodo es concretamente depende del tipo de red en cuestión.
Algunos tipos de topología son:

Punto a punto (point to point, PtP) o peer-to-peer (P2P):
Resultado de imagen para red punto a puntoEn una red punto a punto, los dispositivos en red actúan como socios iguales, o pares entre sí. Como pares, cada dispositivo puede tomar el rol de emisor o la función de receptor. En un momento, el dispositivo A, por ejemplo, puede hacer una petición de un mensaje / dato del dispositivo B, y este es el que le responde enviando el mensaje / dato al dispositivo A. El dispositivo A funciona como receptor, mientras que B funciona como emisor. Un momento después los dispositivos A y B pueden revertir los roles: B, como receptor, hace una solicitud a A, y A, como emisor, responde a la solicitud de B. A y B permanecen en una relación recíproca o par entre ellos.

Ventajas:
  •          Fáciles de configurar.
  •          Menor complejidad.
  •          Menor costo dado que no se necesita dispositivos de red ni servidores dedicados.

Desventajas:
  •          Administración no centralizada.
  •          No son muy seguras.
  •        Todos los dispositivos pueden actuar como cliente y como servidor, lo que puede relentizar su funcionamiento.
  •          No son escalables
  •          Reducen su rendimiento


En bus (“conductor común” o bus) o lineal (line)
Resultado de imagen para red en bus
Una red en bus es aquella topología que se caracteriza por tener un único canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan los diferentes dispositivos. De esta forma todos los dispositivos comparten el mismo canal para comunicarse entre sí.




Ventajas:
  •          Facilidad de implementación y crecimiento.
  •          Simplicidad en la arquitectura.
  •          Es una red que no ocupa mucho espacio.

Desventajas:
  •          Hay un límite de equipos dependiendo de la calidad de la señal.
  •          Puede producirse degradación de la señal.
  •          Complejidad de reconfiguración y aislamiento de fallos.
  •          Limitación de las longitudes físicas del canal.
  •          Un problema en el canal usualmente degrada toda la red.
  •          El desempeño se disminuye a medida que la red crece.
  •          El canal requiere ser correctamente cerrado (caminos cerrados).
  •          Altas pérdidas en la transmisión debido a colisiones entre mensajes.


En estrella (star):
Una red en estrella es una red de computadoras donde las estaciones están conectadas directamente a un punto central y todas las comunicaciones se hacen necesariamente a través de ese punto (conmutador, repetidor o concentrador). Los dispositivos no están directamente conectados entre sí, además de que no se permite tanto tráfico de información. Dada su transmisión, una red en estrella activa tiene un nodo central “activo” que normalmente tiene los medios para prevenir problemas relacionados con el eco.
Resultado de imagen para red en estrella

Ventajas:
  •          Posee un sistema que permite agregar nuevos equipos fácilmente.
  •          Reconfiguración rápida.
  •          Fácil de prevenir daños y/o conflictos, ya que no afecta a los demás equipos si ocurre algún fallo.
  •          Centralización de la red.
  •          Fácil de encontrar fallos

Desventajas:
  •          Si el hub (repetidor) o switch central falla, toda la red deja de transmitir.
  •          Es costosa, ya que requiere más cables que las topologías en bus o anillo.
  •          El cable viaja por separado del concentrador a cada computadora.


En anillo (ring) o circular:
Imagen relacionada
Una red en anillo es una topología de red en la que cada estación tiene una única conexión de entrada y otra de salida. Cada estación tiene un receptor y un transmisor que hace la función de traductor, pasando la señal a la siguiente estación.
En este tipo de red la comunicación se da por el paso de un token o testigo, que se puede conceptualizar como un cartero que pasa recogiendo y entregando paquetes de información, de esta manera se evitan eventuales pérdidas de información debidas a colisiones.



Ventajas:
  •          El sistema provee un acceso equitativo para todas las computadoras.
  •          El rendimiento no decae cuando muchos usuarios utilizan la red.
  •          Arquitectura muy sólida.
  •          Facilidad para la fluidez de datos.
  •          Sistema operativo caracterizado con un único canal

Desventajas:
  • Longitudes de canales (si una estación desea enviar a otra, los datos tendrán que pasar por todas las estaciones intermedias antes de alcanzar la estación de destino).
  • El canal usualmente se degradará a medida que la red crece.
  • Difícil de diagnosticar y reparar los problemas.
  • Si se encuentra enviando un archivo podrá ser visto por las estaciones intermedias antes de alcanzar la estación de destino.
  • La transmisión de datos es más lenta que en las otras topologías (Estrella, Malla, Bus, etc), ya que la información debe pasar por todas las estaciones intermedias antes de llegar al destino.


En malla (mesh):
Resultado de imagen para red en mallaLa topología de red malla es una topología de red en la que cada nodo está conectado a todos los nodos. De esta manera es posible llevar los mensajes de un nodo a otro por distintos caminos. Si la red de malla está completamente conectada, no puede existir absolutamente ninguna interrupción en las comunicaciones. Cada servidor tiene sus propias conexiones con todos los demás servidores.




Ventajas:
La topología de red mallada es una topología de red en la que cada nodo está conectado a todos los nodos. De esta manera es posible llevar los mensajes de un nodo a otro por distintos caminos. Si la red de malla está completamente conectada, no puede existir absolutamente ninguna interrupción en las comunicaciones.

Desventajas:
El costo de la red puede aumentar en los casos en los que se implemente de forma alámbrica, la topología de red y las características de la misma implican el uso de más recursos.

En árbol (tree) o jerárquica:
Resultado de imagen para red en arbol
La red en árbol es una topología de red en la que los nodos están colocados en forma de árbol. Desde una visión topológica, es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central. En cambio, tiene un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos. Es una variación de la red en bus, el fallo de un nodo no implica una interrupción en las comunicaciones. Se comparte el mismo canal de comunicaciones.

Ventajas:
  •          Cableado punto a punto para segmentos individuales.
  •          Soportado por multitud de vendedores de software y de hardware.
  •          Facilidad de resolución de problemas.

Desventajas:
  •          Se requiere mucho cable.
  •          La medida de cada segmento viene determinada por el tipo de cable utilizado.
  •          Si se cae el segmento principal todo el segmento también cae.
  •          Es más difícil su configuración.
  •          Si se llegara a desconectar un nodo, todos lo que están conectados a él se desconectan también.


Topología híbrida, combinada o mixta:
En la topología híbrida o topología mixta las redes pueden utilizar diversas topologías para conectarse.
La topología mixta es una de las más frecuentes y se deriva de la unión de varios tipos de topologías de red, de aquí el nombre de “híbridas” o “mixtas”.
Ejemplos de topologías mixtas: en árbol, estrella-estrella, bus-estrella, etc.
Su implementación se debe a la complejidad de la solución de red, o bien al aumento en el número de dispositivos, lo que hace necesario establecer una topología de este tipo. Las topologías mixtas tienen un costo muy elevado debido a su administración y mantenimiento, ya que cuentan con segmentos de diferentes tipos, lo que obliga a invertir en equipo adicional para lograr la conectividad deseada.

Cadena margarita (daisy chain):
Es una sucesión de enlaces, tal que un dispositivo A es conectado a un dispositivo B, el mismo dispositivo B a un dispositivo C, este dispositivo C a un dispositivo D, y así sucesivamente.

Las conexiones no forman redes (en el ejemplo anterior, el dispositivo C no puede ser directamente conectado al dispositivo A), estas no hacen retorno de lazo desde el último dispositivo al primero. La cadena margarita se puede usar en fuentes de potencia, señales analógicas, datos digitales, o en una combinación de estas.

lunes, 7 de noviembre de 2016

Evolución de los equipos informáticos



La manera en que las computadoras han cambiado es muy significativa, ya que estas han ido evolucionando de acuerdo a las capacidades del ser humano, y en ocasiones pueden llegar a ser de mucha ayuda , pues la mayor parte del mundo las utiliza para muchas de sus actividades diarias, ya sea para sus trabajos, tareas o simplemente como un medio de entretenimiento, y como ya dijimos antes, esto antes no era posible, ya que las primeras computadoras eran solamente para uso militar así que no cualquier persona podía usarlas, y mediante avanzaba el tiempo se fue cambiando la manera en que se fabricaban, no fue hasta la cuarta generación en donde se marcó un gran cambio en la evolución de las computadoras, pues fue la época en que se comenzaban a fabricar las computadoras personales y cuando se desarrolló la súper computadora. La quinta generación, es la de las computadoras de la actualidad, las cuales son muy avanzadas e innovadoras, sin embargo, aunque estas sean tan avanzadas como lo son hoy en día, aún seguirán avanzando (tecnológicamente hablando) más y más, y serán cada vez más innovadoras, y nos seguirán haciendo la vida más fácil, como lo han estado haciendo desde hace mucho tiempo.

lunes, 31 de octubre de 2016

Procesadores

Evolución de los procesadores:
El microprocesador es producto de la evolución de distintas tecnologías predecesoras, surgido de la computación y la tecnología semiconductora; en los inicios no existían los procesadores tal como los conocemos hoy. El inicio de su desarrollo data de mitad de la década de 1950; estas tecnologías se fusionaron a principios de los años 70, produciendo el primer microprocesador.


AMD

1991: El AMD AMx86 Procesadores fabricados por AMD 100% compatible con los códigos de Intel de ese momento, llamados "clones" de Intel, llegaron incluso a superar la frecuencia de reloj de los procesadores de Intel y a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586.

1995: El AMD K5 Habiendo abandonado los clones, AMD fabricada con tecnologías análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora, transforma todos los comandos x86 (de la aplicación en curso) en comandos RISC. Este principio se usa hasta hoy en todas las CPU x86. En la mayoría de los aspectos era superior el K5 al Pentium, incluso de inferior precio, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando con poco éxito, se retrasó 1 año de su salida al mercado, a razón de ello sus frecuencias de trabajo eran inferiores a las de la competencia, y por tanto, los fabricantes de PC dieron por sentado que era inferior.

1996: Los AMD K6 y AMD K6-2 Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a los Pentium MMX de Intel, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador casi a la altura del Pentium II pero por un precio muy inferior. En cálculos en coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta los más de 500 Mhz y con el juego de instrucciones MMX, que ya se han convertido en estándares. Más adelante se lanzó una mejora de los K6, los K6-2 de 250 nanómetros, para seguir compitiendo con los Pentium II, siendo éste último superior en tareas de coma flotante, pero inferior en tareas de uso general. Se introduce un juego de instrucciones SIMD denominado 3DNow!

1999: El AMD Athlon K7 (Classic y Thunderbird) Procesador totalmente compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, pero se le mejoró substancialmente el sistema de coma flotante (ahora con 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le incrementó la memoria caché de primer nivel (L1) a 128 KiB (64 KiB para datos y 64 KiB para instrucciones). Además incluye 512 KiB de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento.
El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros. El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma frecuencia de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática.

2001: El AMD Athlon XP Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vió que el Athlon Thunderbird no estaba a su nivel. Además no era práctico para el overclocking, entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo, y sacó el Athlon XP. Este compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al Thunderbird se puede mencionar la prerrecuperación de datos por hardware, conocida en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32.

2004: El [AMD] Athlon 64 El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y que el Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,: cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, baja la velocidad del mismo y su tensión se reduce.

2007: El AMD Phenom Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPU Phenom poseen características tales como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depende tanto del tiempo de latencia de la RAM), además de compatibilidad de infraestructura de los zócalos AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.

2008: Los AMD Phenom II y Athlon II Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MiB del Phenom original a 6 MiB.
Entre ellos, el Amd Phenom II X2 BE 555 de doble núcleo surge como el procesador binúcleo del mercado. También se lanzan tres Athlon II con sólo Cache L2, pero con buena relación precio/rendimiento. El Amd Athlon II X4 630 corre a 2,8 GHz. El Amd Athlon II X4 635 continua la misma línea.
AMD también lanza un triple núcleo, llamado Athlon II X3 440, así como un doble núcleo Athlon II X2 255. También sale el Phenom X4 995, de cuatro núcleos, que corre a más de 3,2GHz. También AMD lanza la familia Thurban con 6 núcleos físicos dentro del encapsulado

2011: El AMD Fusion AMD Fusion es el nombre clave para un diseño futuro de microprocesadores Turion, producto de la fusión entre AMD y ATI, combinando con la ejecución general del procesador, el proceso de la geometría 3D y otras funciones de GPUs actuales. La GPU (procesador gráfico) estará integrada en el propio microprocesador. Se espera la salida progresiva de esta tecnología a lo largo del 2011; estando disponibles los primeros modelos (Ontaro y Zacate) para ordenadores de bajo consumo entre últimos meses de 2010 y primeros de 2011, dejando el legado de las gamas medias y altas (Llano, Brazos y Bulldozer para mediados o finales del 2011)





Intel
1971: El Intel 4004 

El 4004 fue el primer microprocesador del mundo, creado en un simple chip, y desarrollado por Intel. Era un CPU de 4 bits y también fue el primero disponible comercialmente. Este desarrollo impulsó la calculadora de Busicom y dio camino a la manera para dotar de «inteligencia» a objetos inanimados, así como la computadora personal. 

1972: El Intel 8008
Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con las expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.

1974: El Intel 8080
EL 8080 se convirtió en la CPU de la primera computadora personal, la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial «Starship» del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que ejecutaban el sistema operativo CP/M-80. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de $395 dólares. En un periodo de pocos meses, se vendieron decenas de miles de estas PC.

1978: Los Intel 8086 y 8088 
Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que las PC de IBM dieran un gran golpe comercial con el nuevo producto con el 8088, el llamado IBM PC. El éxito del 8088 propulsó a Intel a la lista de las 500 mejores compañías, en la prestigiosa revista Fortune, y la misma nombró la empresa como uno de Los triunfos comerciales de los sesenta.

1982: El Intel 80286
El 80286, popularmente conocido como 286, fue el primer procesador de Intel que podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del software sigue siendo un sello de la familia de microprocesadores de Intel. Luego de 6 años de su introducción, había un estimado de 15 millones de PC basadas en el 286, instaladas alrededor del mundo.

1985: El Intel 80386
Este procesador Intel, popularmente llamado 386, se integró con 275000 transistores, más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32 bits, con capacidad para multitarea y una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que usaran memoria virtual
.
1989: El Intel 80486
La generación 486 realmente significó contar con una computadora personal de prestaciones avanzadas, entre ellas,un conjunto de instrucciones optimizado, una unidad de coma flotante o FPU, una unidad de interfaz de bus mejorada y una memoria caché unificada, todo ello integrado en el propio chip del microprocesador. Estas mejoras hicieron que los i486 fueran el doble de rápidos que el par i386 - i387 operando a la misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un coprocesador matemático o FPU integrado; con él que se aceleraron notablemente las operaciones de cálculo

1993: El Intel Pentium
El microprocesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez, gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486Du) y el otro equivalente a 486Su). Además, estaba dotado de un bus de datos de 64 bits, y permitía un acceso a memoria de 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas, y los registros también eran de 32 bits).

1995: EL Intel Pentium Pro
Lanzado al mercado para el otoño de 1995, el procesador Pentium Pro (profesional) se diseñó con una arquitectura de 32 bits. Se usó en servidores y los programas y aplicaciones para estaciones de trabajo (de redes) impulsaron rápidamente su integración en las computadoras. .

1997: El Intel Pentium II
Un procesador de 7,5 millones de transistores, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste.

El Intel Pentium II Xeon
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations).

1999: El Intel Celeron
Continuando la estrategia, Intel, en el desarrollo de procesadores para los segmentos del mercado específicos, el procesador Celeron es el nombre que lleva la línea de de bajo costo de Intel.

1999: El Intel Pentium III
El procesador Pentium III ofrece 70 nuevas instrucciones Internet Streaming, las extensiones de SIMD que refuerzan dramáticamente el desempeño con imágenes avanzadas, 3D, añadiendo una mejor calidad de audio, video y desempeño en aplicaciones de reconocimiento de voz.

1999: El Intel Pentium III Xeon
El procesador Pentium III Xeon amplia las fortalezas de Intel en cuanto a las estaciones de trabajo (workstation) y segmentos de mercado de servidores, y añade una actuación mejorada en las aplicaciones del comercio electrónico e informática comercial avanzada.

2000: EL Intel Pentium 4
Este es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primero con un diseño completamente nuevo desde el Pentium Pro. Se estrenó la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE.

2004: El Intel Pentium 4 (Prescott)
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16 KiB de caché L1

2006: EL Intel Core Duo
Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPU Pentium 4/D2.

2008: El Intel Core Nehalem
Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (zócalo 1366), y sustituido a su vez en i7, i5 e i3 (zócalo 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando núcleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.

2011: El Intel Core Sandy Bridge
Llegan para remplazar los chips Nehalem, con Intel Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Pentium G.
Intel lanzó sus procesadores que se conocen con el nombre en clave Sandy Bridge. Estos procesadores Intel Core que no tienen sustanciales cambios en arquitectura respecto a nehalem, pero si los necesarios para hacerlos más eficientes y rápidos que los modelos anteriores. Es la segunda generación de los Intel Core con nuevas instrucciones de 256 bits, duplicando el rendimiento, mejorando el desempeño en 3D y todo lo que se relacione con operación en multimedia. Llegaron la primera semana de Enero del 2011. Incluye nuevo conjunto de instrucciones denominado AVX y una GPU integrada de hasta 12 unidades de ejecución
Ivy Bridge es la mejora de sandy bridge a 22 nm. Se estima su llegada para 2012 y promete una mejora de la GPU, así como procesadores de sexdécuple núcleo en gamas más altas y cuádruple núcleo en las más bajas, abandonándose los procesadores de núcleo doble.


Conclusión:

Intel y AMD son marcas de procesadores que ayudan al funcionamiento de los aparatos electrónicos, Intel es un procesador que se orienta por los videojuegos y la edición, mientras que AMD esta orillado al diseño y al renderizado; estas dos son consideradas las mejores marcas en cuanto a los procesadores que fabrican. En los principios de AMD se decía que era una copia de Intel, pero con el tiempo fue demostrando que podía llegar a ser mejor que Intel, y al día de hoy muchas personas discuten para ver cuál de estas dos marcas es la mejor. En el pasado AMD fabrico algunos procesadores que llegaron a ser mejores que los de Intel, pero en la actualidad los mejores procesadores en el mercado son los de Intel, es decir, los procesadores de Intel tienen un mejor rendimiento que los de AMD, ósea que si hablamos de rendimiento, Intel es el mejor, sin embargo en cuanto a precio, AMD es el mejor, ya que estos aunque no tengan mejor rendimiento que los de Intel, tienen un precio accesible para la mayoría de la población que se interesa por estos productos. Por lo tanto, podría decirse que depende de los estándares en que se analice cual de los dos es mejor, aunque normalmente las personas suelen decir que Intel es el mejor, ya que este es más conocido que AMD.

martes, 25 de octubre de 2016

Evolución del sistema operativo de Microsoft

Evolución del sistema operativo de Microsoft


MS-DOS 1.0
En 1981 Microsoft se concentró en crear un nuevo sistema operativo, este software seria la base sobre la que se ejecuten los programas del equipo. El nombre que se le dio a este sistema operativo fue MS-DOS (“Microsoft Disk Operating System”). Con este se presentó un nuevo lenguaje al público, en el cual se escribía “C:” seguido de diversos comandos, que llego a convertirse en parte de la rutina diaria.


Conclusión:
El MS-DOS 1.0, era un sistema operativo muy sencillo, el cual hoy en día, incluso la gente que no sabe mucho sobre las computadoras, lo podría considerar como un sistema un poco difícil y usar y de cierta forma obsoleto.



Windows 1.0
En noviembre de 1985 Microsoft presentó Microsoft Windows, una extensión de MS-DOS, el cual proporciona un entorno operativo gráfico. En este en lugar de escribir comandos, se desplazaba por la pantalla entre “ventanas” señalando y haciendo clic con el ratón.
Hay menús desplegables, barras desplazables, iconos y cuadros de diálogo que facilitan el aprendizaje y el uso de los programas. Se puede alternar entre varios programas sin tener que salir de ellos y reiniciarlos de manera individual. Windows 1.0 incluye varios programas, además de la administración de archivos de MS‑DOS, como lo son Paint, Windows Writer, Bloc de notas y Calculadora, así como con un calendario, un archivo de tarjetas y un reloj que ayudan a administrar las actividades diarias. Incluso hay un juego: Reversi.


Conclusión:
Microsoft consiguió crear un sistema operativo muy innovador, que comparado con el anterior se ve muy avanzado, ya que cuenta con muchas características nuevas, ya que ahora en vez de tener que estar escribiendo comandos, el usuario se desplazaba entre ventanas, señalando y dando clic con el ratón, este sistema también contaba con menús desplegables, ventanas desplazables, cuadros de iconos, e incluso tenía programas nuevos como lo son; Paint, La calculadora Windows Writer y el Bloc de notas.

Windows 2.0

En diciembre de 1987 Microsoft sacó al mercado Windows 2.0, con iconos de escritorio y memoria expandida. Con compatibilidad mejorada para gráficos, ahora era posible superponer ventanas, controlar el diseño de la pantalla y usar métodos abreviados de teclado para acelerar el trabajo. Además aparece el panel de control.

Conclusión:
Este nuevo sistema operativo es diferente al otro debido a que en él se podía controlar el diseño de la pantalla, además contaba con una memoria expandida y, ahora, aparece el panel de control.



Windows 3.0
En mayo de 1990 Microsoft sacó al mercado Windows 3.0 con un mejor rendimiento, gráficos avanzados con 16 colores e iconos mejorados. Una nueva ola de equipos 386 ayuda a impulsar la popularidad de Windows 3.0. Gracias a su total compatibilidad con el procesador Intel 386, los programas se ejecutan mucho más rápido. El Administrador de programas, el Administrador de archivos y el Administrador de impresión llegan a Windows 3.0. Windows ahora incluye juegos, como el Solitario, Corazones y Buscaminas.

Conclusión:
Windows 3.0 es un nuevo sistema operativo con un mejor rendimiento que utiliza gráficos avanzados y ahora tiene color, además ahora integra programas como lo son el administrador de programas, el administrador de archivos y el administrador de impresión, y ahora, también, tiene juegos como el solitario, corazones y buscaminas.



Windows 95

Con Windows 95, los equipos informáticos llegan a la madurez. Es la era de los fax/módems, del correo electrónico, del nuevo mundo online y de los deslumbrantes juegos multimedia y el software educativo. Se presenta en 12 idiomas y con conexión telefónica a Internet. En Windows 95 aparecen por primera vez el menú Inicio, la barra de tareas y los botones para minimizar, maximizar y cerrar ventanas.

Conclusión:
Windows 95 fue uno de los símbolos de la madurez de los equipos informática. Ya que es la época donde llega el fax, el correo electrónico, el mundo online. Se presenta en 12 idiomas y con conexión a internet, además en Windows 95 aparecen la barra de tareas, los botones para minimizar, maximizar, cerrar ventanas, además del menú de Inicio, las cuales son muchas de las características que siguen teniendo los sistemas operativos de la actualidad.


Windows 98

En junio de 1998 Microsoft sacó al mercado Windows 98, la primera versión de Windows diseñada específicamente para los consumidores. Los equipos informáticos son habituales en la oficina y en el hogar, y comienzan a aparecer los cibercafés, desde donde se puede acceder a Internet. 

Conclusión:
Windows 98 fue el primer sistema operativo de Microsoft diseñado específicamente para los consumidores, ya que esta era una época en la que se utilizaban mucho las computadoras en los cibercafés y los hogares para acceder a internet.



 Windows 2000

En febrero del año 2000, salió Windows 2000, el cual incorpora importantes mejoras relacionadas con la fiabilidad, facilidad de uso, compatibilidad con Internet y compatibilidad con equipos informáticos móviles.
Conclusión:
Windows 2000 es un sistema operativo que ahora incorpora mejoras relacionadas con la fiabilidad, facilidad de uso, compatibilidad con internet y también compatibilidad con equipos informáticos móviles.





Windows XP

El 25 de octubre de 2001 salió al mercado Windows XP, que contaba con un diseño renovado que estaba centrado en la facilidad y en un centro de servicios de Ayuda y soporte técnico unificado. Se presenta en 25 idiomas. Es rápido y estable. La navegación en el menú Inicio, en la barra de tareas y en el Panel de control es más intuitiva. Windows XP Home Edition se caracteriza por un diseño visual limpio y simplificado, que facilita el acceso a las características más utilizadas. Con Windows XP Professional ya se introduce Windows Messenger. Office XP ya incorpora Word, Excel, PowerPoint y Outlook.

Conclusión:
Windows XP es un sistema operativo que cuenta con un diseño mejorado centrado en la facilidad y en un centro de servicios de Ayuda y soporte técnico unificado, se presentaba en 25 idiomas y tenía Office XP que contaba con Word, Excel, PowerPoint y Outlook.


Windows Server 2003
En abril del año 2003, Windows Server 2003 se convirtió en el corazón de la estrategia de servidores de Microsoft y se diseña en torno a una arquitectura común que asegure la interoperabilidad. Este es el proyecto de desarrollo de software más grande en la historia de Microsoft hasta la fecha.

Conclusión:
Windows Server 2003 era el corazón de la estrategia de los servidores de Microsoft diseñado con una arquitectura común que asegurara la interoperabilidad.


Microsoft Office System 2007 y Windows Vista
En 2007 salió Windows Vista. El diseño jugó un papel importante en Windows Vista, y elementos tales como la barra de tareas y los bordes de las ventanas presentaron un nuevo aspecto. La búsqueda adquiere mayor importancia y ayuda a los usuarios a encontrar archivos en sus equipos más rápidamente. En Windows Vista, aparece por primera vez el botón Iniciar, con un nuevo diseño.

Conclusión:
El diseño fue lo principal en Windows Vista, en el aparece por primera vez el botón de Iniciar con un nuevo diseño.
Windows 7


En octubre de 2009 salió al mercado Windows 7, se creó para el mundo inalámbrico que surge a finales de la primera década del siglo XXI. En este momento, las ventas de equipos portátiles empiezan a superar a los equipos de escritorio y es habitual conectarse a zonas interactivas inalámbricas públicas, como los cafés, y a las redes privadas domésticas. Windows 7 incorpora nuevas formas de trabajar con ventanas que mejoran la funcionalidad y hacen que la interfaz sea más divertida de usar.

Conclusión:
Windows 7 es un sistema que incorpora nuevas formas de trabajar utilizando ventanas que mejoran la funcionalidad y hacen que la interfaz sea mas divertida.



Windows 8 

En octubre de 2012 Windows 8 llegó como un sistema operativo completamente renovado. Incorpora una interfaz totalmente nueva que funciona a la perfección con funciones táctiles y con el ratón y el teclado. Windows 8 también incorpora mejoras en el conocido escritorio de Windows, como una nueva barra de tareas y un sistema de administración de archivos optimizado. Dispone de una pantalla de inicio con iconos que permiten conectar con las personas, los archivos, las apps y los sitios web. Las apps ocupan un papel protagonista; por ello, desde la pantalla Inicio puede accederse directamente a un nuevo lugar donde conseguirlas: la Tienda Windows. También se presenta la primera versión de la tableta Microsoft Surface, con Windows RT.

Conclusión:
Windows 8 llego como un sistema operativo completamente renovado, con una interfaz totalmente nueva que funciona a la perfección con funciones táctiles, también incorpora mejoras en el conocido escritorio de Windows, como una nueva barra de tareas y un sistema de administración de archivos optimizado.


Windows 8.1

En octubre de 2013 sale Windows 8.1, el cual lleva aún más lejos el concepto de Windows 8 incorporando una increíble colección de aplicaciones y la conectividad en la nube para dispositivos avanzados.

Conclusión:
Windows 8.1 incorpora una colección de aplicaciones y conectividad en la nube para dispositivos avanzados.



Windows 10

En enero de 2015 Microsoft saca al mercado Windows 10, su más reciente sistema operativo.


Conclusión:
Windows 10 es el sistema operativo más reciente de Microsoft el cual es muy innovador con una interfaz fácil de usar y un mejor rendimiento.