miércoles, 7 de octubre de 2009


Algunos hitos tecnológicos prehistóricos

Herramientas de piedra inuit.Muchas tecnologías han sido inventadas de modo independiente en diferentes lugares y épocas; se cita a continuación sólo la más antigua invención conocida.

Armas y herramientas de piedra: Hechas de piedras toscamente fracturadas, fueron usadas por los primeros homínidos hace más de 1.000.000 de años en África. Las armas permitieron el auge de la caza de animales salvajes, ventajosa para la alimentación por su mayor contenido en proteínas. Las herramientas facilitaron el troceado de los animales, el trabajo del cuero, el hueso y la madera produciendo los primeros cambios sustanciales de la forma de vida.[10]

Trilla del trigo en el Antiguo Egipto.Encendido de fuego: Aunque el fuego fue usado desde tiempos muy remotos, no hay evidencias de su encendido artificial, seguramente por fricción, hasta alrededor de 200.000 a. C. El uso del fuego permitió: protegerse mejor de los animales salvajes, que invariablemente le temen; prolongar las horas de trabajo útil, con el consiguiente incremento de relación social; migrar a climas más fríos, usándolo como calefacción para las moradas; cocinar los alimentos, haciéndolos más fáciles de digerir y masticar. A esta última característica atribuyen algunos antropólogos la modificación de la forma de la mandíbula humana, menos prominente que la de los restantes primates.[11]
Cestería: No se sabe con certeza cuando se inició, por ser un material de fácil descomposición. Se presume que fue anterior a la alfarería y la base de ésta cuando los canastos de fibras o varillas se recubrieron con arcilla para impermeabilizarlos. Las cestas fueron probablemente los primeros recipientes y medios de transporte de alimentos y otros objetos pequeños.

Tejedora aymara del imperio incaico, según Guaman Poma.Alfarería: Alrededor del 8.000 a. C. (comienzos del Neolítico) en Europa. Los hornos de alfarero fueron la base de los posteriores hornos de fundición de metales, es decir, de la metalurgia.
Cultivo del trigo: Alrededor del 8.500 a. C., en el Creciente Fértil. La gran productividad de la agricultura disminuyó el tiempo empleado en las tareas de alimentación y facilitó el almacenamiento de reservas, permitiendo un gran aumento de la población humana. Las prácticas agrícolas desalentaron el nomadismo, dando así origen a las ciudades, lugar donde se produjo la división social del trabajo y el consiguiente florecimiento de las tecnologías.[12]
Metalurgia del cobre: Alrededor del 7.000 a. C., en Turquía.[13] El cobre fue, en casi todas partes, el primer metal usado por encontrarse naturalmente en estado puro. Aunque es demasiado blando para hacer herramientas durables, las técnicas desarrolladas dieron las bases para el uso del bronce, primero, y del hierro, después.
Domesticación de cabras y ovejas: Alrededor del 7.000 a. C. en Anatolia y Persia. La tecnología de domesticación de animales permitió, por selección artificial, obtener las características más convenientes para el uso humano (carne, grasa, leche, fibras, cerdas, cuero, cornamentas, huesos...).[14]

Tableta con escritura cuneiforme de la colección Kirkor Minassian.Tejidos de fibras animales y vegetales: Hechos con telares rudimentarios hace aproximadamente unos 5.000 años, en Anatolia, el Levante mediterráneo y Egipto. El enorme tiempo necesario para el hilado y tejido manual de fibras fue el gran problema que resolvió la Revolución Industrial con la invención de los telares mecánicos. Los materiales difíciles de conseguir, como la seda, las elaboradas técnicas de teñido y de decoración de vestimentas, hicieron de éstas símbolos de estatus social. Este fue probablemente, junto con la disponibilidad de armas de metal, uno de los primeros usos simbólicos de las tecnologías (riqueza e indestructibilidad, respectivamente).
Escritura:Alrededor del 3.300 a. C., en Sumer, la escritura cuneiforme sobre tabletas de arcilla se usaba para llevar inventarios y controlar el pago de impuestos.[15]
Con la invención de la escritura se inician el período histórico y los procesos sistemáticos de transmisión de información y de análisis racional de las tecnologías, procesos cuya muy posterior culminación sería el surgimiento de las ciencias.

Diferencias entre tecnologías, técnicas, ciencias, y artes
Ni el habla cotidiana ni los tratados técnicos establecen claramente la diferencia entre tecnologías y técnicas. Las tecnologías simples tienden a ser llamadas técnicas (por ejemplo, la técnica de colocación de clavos). Las tecnologías complejas usan muchas tecnologías previas simples estableciendo una amplia gradación de complejidad en uno de cuyos extremos están las tecnologías más complejas, como las electrónicas y las médicas, y en el otro las técnicas, generalmente manuales y artesanales, más cercanas a la experiencia directa de las personas como hizo notar Claude Lévi-Strauss.[2] En algún punto intermedio desaparece o se hace borrosa la distinción entre tecnologías y técnicas. En el lenguaje técnico es frecuente denominar tecnologías a los saberes prácticos más racionales y transmisibles con mayor precisión (generalmente a través de textos, gráficos, tablas y representaciones varias y complejas), mientras que a las técnicas se les asigna un carácter más empírico que racional.

Algunas de las tecnologías actuales más importantes, como la Electrónica, consisten en la aplicación práctica de las ciencias (en ese caso el Electromagnetismo y la Física del estado sólido). Sin embargo, no todas las tecnologías son ciencias aplicadas. Tecnologías como la agricultura y la ganadería precedieron a las ciencias biológicas en miles de años, y se desarrollaron de modo empírico, por ensayo y error (y por ello con lentitud y dificultad), sin necesidad de saberes científicos.[3] La función central de las ciencias es caracterizar bien la realidad, aunque no sea visible o vaya contra el "sentido común": describir y categorizar los fenómenos, explicarlos con leyes o principios lo más simples posibles y tal vez (no siempre) predecirlos.

Las artes, por su parte, requieren de técnicas para su realización (por ejemplo: preparación de pigmentos y su modo de aplicación en la pintura; fabricación de cinceles y martillos y modo de fundir el bronce o tallar el mármol, en la escultura). Una diferencia central es que las técnicas son transmisibles, es decir, pueden ser enseñadas por un maestro y aprendidas por un aprendiz. Los aspectos más originales de las artes en general no lo son. Decimos, justa y precisamente, que algo es un art cuando su realización requiere dotes especiales que no podemos especificar con precisión y parecen ser innatas o propias sólo de una persona en particular.

Una diferencia importante entre artes, ciencias y tecnologías o técnicas, es su finalidad. La ciencia busca la verdad (buena correspondencia entre la realidad y las ideas que nos hacemos de ella). Las artes buscan el placer que da la expresión y evocación de los sentimientos humanos, la belleza de la formas, los sonidos y los conceptos; el placer intelectual. Las tecnologías son medios para satisfacer las necesidades y deseos humanos. Son funcionales, permiten resolver problemas prácticos y en el proceso de hacerlo, transforman el mundo que nos rodea haciéndolo más previsible, crecientemente artificial y provocando al mismo tiempo grandes consecuencias sociales y ambientales, en general no igualmente deseables para todos los afectados.[4]

La transformación de la materia y el poder de la energía atómica
En 1919, Ernest Rutherford (1871-1937) logró “bombardear” átomos de nitrógeno con rayos alfa. Cuando una partícula alfa golpeaba un núcleo de nitrógeno, éste se rompía liberando algunos de sus siete protones. Alguno de estos protones liberados “capturaba” un electrón transformándose en un átomo de hidrógeno. El experimento de Rutherford fue extremadamente importante. Los progresos sucesivos para la utilización de la energía atómica (importantísima dentro de la tecnologia moderna) llegaron con el descubrimiento del “neutrón”, partícula sin ninguna carga eléctrica contenida en todos los núcleos de los átomos, salvo el hidrógeno.
En la combustión se produce una reacción química: los átomos de algunas sustancias se combinan entre sí para formar nuevas sustancias, pero sus núcleos permanecen inalterables. Pero cuando se rompe un núcleo atómico, la materia misma, es decir, la masa, se transforma en calor. Albert Einstein fue el primero que previó la enorme energía encerrada en el núcleo atómico.
La terrible confirmación del poder de semejante energía tuvo lugar el 6 de agosto de 1945, cuando un avión americano dejó caer una bomba atómica sobre la ciudad japonesa de Hiroshima, matando a casi 100.000 personas y destruyendo completamente la ciudad. En este caso se hizo uso de una invención de la tecnologia moderna de modo terrible y nefasto.

La era atómica
Durante casi dos mil años, los científicos creyeron que los átomos eran pequeñísimas partículas indivisibles de las cuales se componía toda la materia. John Dalton, abriendo una inmensa brecha hacia el desarrollo de la tecnologia moderna, demostró que la materia, en todos sus aspectos, está compuesta por pocos elementos. Combinando átomos de elementos distintos es posible obtener las diversas sustancias conocidas. Hasta el siglo XIX se conocía en la naturaleza sólo 92 elementos. ¡El hierro era hierro y nadie podía convertirlo en otro metal! Pero a fines del siglo algo cambió. Pierre y Marie Curie, en noviembre de 1898, descubrieron la radioactividad y el concepto del átomo indivisible sufrió un duro golpe. El átomo era, pues, divisible y transformable. La luminiscencia observada por los Curie se debía, efectivamente, a partículas de energía emitidas por el átomo mismo. De tal modo, el átomo se consumía en una transformación de materia de energía. Era realmente un descubrimiento revolucionario y que mucho colaboraría con el desarrollo de la ciencia y la tecnologia moderna.

El espacio y el hombre
Los satélites artificiales han prestado valiosos servicios y contribuido sobremanera al progreso de la ciencia y la tecnologia moderna. Aunque su tarea se desarrolla completamente en el espacio, sus resultados influyen cada vez más sobre nuestra vida terrestre. La necesidad de construir satélites complejos y livianos ha contribuido a desarrollar una técnica constructiva que se denomina micro miniaturización. Gracias a esta técnica ha sido posible construir pequeñísimos aparatos electrónicos que, insertados bajo la piel, regulan el ritmo cardíaco de los enfermos del corazón. Igualmente se han construido aparatos para facilitar la audición a quienes oyen mal.
La necesidad de fabricar materiales resistentes a las altas temperaturas ha dado grandes resultados. Hoy existen materiales livianísimos y muy resistentes que forman parte de la tecnologia moderna; utilizados en la industria, frutos de esta búsqueda. Incluso en minería se utilizan algunas técnicas de excavación que se basan en experiencias espaciales. El continuo perfeccionamiento de las calculadoras electrónicas, debido a la complejidad de los vuelos cósmicos, ha permitido una gran difusión de estas maravillosas máquinas. Y esto ha influido muchísimo en la vida del hombre del futuro.

La importancia de los satélites artificiales
Explicar todos sus usos y utilidades sería muy largo. Así que hablemos sólo de los más importantes. Ante todo, los satélites desarrollan un trabajo de observación muy útil sobre las altas capas de la atmósfera, y por lo tanto, sobre el espacio extra atmosférico. Estudian los rayos cósmicos, los micro meteoritos, etc., y preparan, de ese modo, el camino de los viajes espaciales del futuro. Para los usos terrestres hacen de puente de radio en las comunicaciones de radio y televisión. Todos habrán oído hablar del famoso Early Bird (Pájaro del Alba), el primer satélite comercial y un ejemplo de la tecnologia moderna, utilizado para las trasmisiones de los programas de televisión.
Además de las inevitables utilizaciones militares (satélites espías), los satélites artificiales se emplean también para la asistencia de la navegación, de los submarinos y de los aviones. Se habla desde hace tiempo de espejos solares orbitales capaces de facilitar energía para la desalinización del agua de mar o de observatorios de astronomía colocados por encima del inestable y opaco espesor del aire. Actualmente, los satélites con mayor tecnologia moderna, son lanzados casi exclusivamente por los Estados Unidos y por la Unión Soviética, pero existen también algunos programas europeos que ya han obtenido óptimos resultados.

Los satélites artificiales y la tecnologia moderna
Al referirnos a los satélites artificiales, como parte de la tecnologia moderna, y una de las más adelantadas realizaciones del intelecto humano, no podemos dejar de recordar al físico inglés Isaac Newton (1642-1727) quien en su obra señera describió perfectamente en términos matemáticos aún válidos, de qué modo el Sol y sus planetas, se atraían entre sí, formulando en esa ocación su famosa “ley de la gravedad universal”. En base a tales leyes puede el hombre colocar en órbita los instrumentos por él lanzados en torno a la Tierra. Si en un punto que llamaremos A se imprime una velocidad de 7.900 m/s al cuerpo que se quiere convertir en satélite, su movimiento en el espacio se producirá a lo largo de una órbita que no se encuentra con la superficie terrestre.

Después de la segunda guerra mundial se diseñaron proyectiles-cohete cada vez más potentes y precisos. Fue entonces creado el proyecto americano “Vanguard”, que preveía la puesta en órbita de una pequeña esfera con instrumentos de la ya existente tecnologia moderna. Cuando de pronto desde el espacio llegó un “bip-bip” que preocupó al mundo entero, por creerse que éste provenía del espacio exterior y que era totalmente ajeno al ser humano. El primer satélite artificial, el denominado “Sputnik”, había sido lanzado por Rusia el día 4 de octubre de 1957.

martes, 6 de octubre de 2009


Historia de Windows

Para muchos usuarios hablar del sistema operativo de su ordenador es equivalente a hablar de Windows. Solo por eso vale la pena hacer un repaso a su historia, saber porqué es el sistema más utilizado e incluso, después, plantearse si es realmente el más adecuado a sus necesidades.

La creación
Para entender el producto es bueno conocer primero a sus creadores. Aunque ahora es sorprendente topar con alguien que no conozca a Bill Gates, hubo un tiempo en el que el mundo era diferente.

Cuando todavía era estudiante conoció a Paul Allen y años más tarde en 1975 decidieron montar su propia empresa. El primer objetivo fue desarrollar las versiones del lenguaje de programación BASIC para el equipo Altair. La empresa se llamaría Microsoft.

El primer logro de Microsoft fue el MS-DOS. En 1980 IBM está trabajando en el que sería su gran éxito, la IBM PC. Necesita un software para su proyecto y se lo encarga a Microsoft. Gates tiene poco tiempo así que compra el software a otra empresa, lo rebautiza con el nombre de MS-DOS y le vende la licencia de uso a IBM.

Seguridad en redes Wi-Fi inalámbricas

Segunda entrega de la serie Comunicaciones Inalámbricas en donde expongo la necesidad de asegurar nuestra red inalámbrica y las estrategias a seguir para conseguirlo.




1. Introducción

En la primera entrega sobre redes WiFi veíamos de forma general cómo instalar una red WLAN / 801.11 en casa o la oficina.

Mientras que en las redes cableadas es más complicado conectarse de forma ilegítima -habría que conectarse físicamente mediante un cable-, en las redes inalámbricas -donde la comunicación se realiza mediante ondas de radio-, esta tarea es más sencilla. Debido a esto hay que poner especial cuidado en blindar nuestra red Wi-Fi.

2. Consideraciones previas

Los paquetes de información en las redes inalámbricas viajan en forma de ondas de radio. Las ondas de radio -en principio- pueden viajar más allá de las paredes y filtrarse en habitaciones/casas/oficinas contiguas o llegar hasta la calle.

Si nuestra instalación está abierta, una persona con el equipo adecuado y conocimientos básicos podría no sólo utilizar nuestra conexión a Internet, sino también acceder a nuestra red interna o a nuestro equipo -donde podríamos tener carpetas compartidas- o analizar toda la información que viaja por nuestra red -mediante sniffers- y obtener así contraseñas de nuestras cuentas de correo, el contenido de nuestras conversaciones por MSN, etc.

Si la infiltración no autorizada en redes inalámbricas de por sí ya es grave en una instalación residencial (en casa), mucho más peligroso es en una instalación corporativa. Y desgraciadamente, cuando analizamos el entorno corporativo nos damos cuenta de que las redes cerradas son más bien escasas.

Sin pretender invitaros a hacer nada ilegal, podéis comprobar la cantidad de redes abiertas que podéis encontrar sin más que utilizar el programa Network Stumbler o la función Site Survey o escaneo de redes de vuestro PDA con Wi-Fi o de vuestro portátil mientras dáis un paseo por vuestro barrio o por vuestra zona de trabajo.

Sin embargo, las primeras ofertas normalmente son rechazadas, por lo que no me sorprendería que Microsoft regrese con una mejor propuesta.
A comienzos de mes Microsoft presentó una oferta para comprar a Yahoo que parecía viable. Sin embargo, no llegó a mayores principalmente debido a que la junta directiva de Yahoo argumentó que la oferta de Microsoft no cubría el valor real de la compañía. Para ellos $44.600 millones simplemente no eran suficientes.
Yahoo finalmente se pronunció oficialmente para decir que la compra no estaba en los “mejores intereses” de la compañía. Probablemente tengan razón, recordemos que Yahoo tiene una participación mucho más grande en el mercado de los buscadores que Microsoft.

La línea Core 2 ha sido altamente exitosa para Intel
Publicado por Ing. Francisco Peña en 15:12 Enlaces a esta entrada
TECNOLOGIA E INFORMACION





La línea Core 2 ha sido altamente exitosa para Intel, entregando desempeño inmejorable a un precio que muchos no pueden resistir.
Es casi un año desde que la línea Core 2 Duo original fue lanzada, consistía de los procesadores E6700, E6600, E6400 y E6300. Y ahora un año después, la serie de procesadores de 65nm “Allendale” de dos núcleos ha sido lanzada con un FSB de 800MHz (más lento) de cuatro vías a precios aun más asequibles.

La serie Allendale consiste en los procesadores Core 2 Duo E4300 y E4400. Por supuesto, también están los procesadores de cuatro núcleos Kentsfield, como el Core 2 Quad Q6600 y Q6700, y el Core 2 Extreme QX6800. Lo que significa que Intel tiene procesadores Core 2 con precios que van desde los $120 hasta los $1300.


Sin embargo, no contentos con el éxito de estos procesadores, Intel ha silenciosamente lanzado unos nuevos – aun mas asequibles – procesadores de doble núcleo basado en el núcleo Allendale. Con estos procesadores Intel ha relanzado su siempre popular marca “Pentium”. Pero, esta vez los nuevos CPUs Pentium no serán el producto insignia de Intel. En lugar de esto servirán de puente entre la serie económica de procesadores Core 2 Duo E4000 y la serie aun por salir “Conroe-L” Celeron 400.

Entonces, ¿exactamente son estos procesadores Pentium de dos núcleos? Bueno, en esencia son procesadores Conroe simplificados con un cache L2 pequeño de 1MB y un FSB de 800MHz (los procesadores Conroe tiene un cache L2 de 4MB y usan un FSB de 1066/1333MHz).

Actualmente hay dos versiones disponibles, el Pentium E2140 (1.6GHz) y el E2160 (1.8GHz). Con una velocidad de 1.8GHz el E2160 iguala al E4300 en términos de velocidad del reloj pero con la mitad de cache L2. El E2140 por otro lado ahora es el procesador de escritorio “Core 2” más lento, con solo 1.6GHz. Aunque el precio de estos procesadores debería ser levemente menor, por el momento el precio al por menor en Internet del E2160 se encuentra alrededor de los $99, mientras que el E2140 cerca de los $84

AMD/ATI

Como AMD/ATI acaba de lanzar su próxima generación de tarjetas, Nvidia tiene que mantener sus ofrecimientos competitivos para no perder su ventaja en este mercado. Es mas, la gran mayoría de jugadores no compran tarjetas 8800 GTX o GTS por que prefieren esperar ver que pasa.

Considerando que Nvidia gastó cerca de $400 millones en el desarrollo de la arquitectura GeForce 8, es solo natural que quieran tener sus productos en el mercado el mayor tiempo posible. Pero, ellos saben que por la competencia no pueden alargar su vida más.



Entonces, ¿como haces que una tecnologia con sus dias contados se venda como pan caliente? Haces exactamente lo que ha hecho Nvidia con la GeForce 8800 GT: ¡ofreces un nuevo producto sea del doble de rápido y lo véndes a mitad de precio! Para aquellos que estaban esperando la nueva generación de tarjetas ATI, será muy difícil resistirse a la nueva 8800 GT y es precisamente lo que busca Nvidia, robar un poco del elemento sorpresa de AMD.


La GeForce 8800 GT fue oficialmente lanzada el 29 de octubre e inmediatamente fue puesta a disposición del publico. Casi tres meses después la tarjeta debería ser fácil de encontrar, sin embargo ha sido muy difícil para la compañía mantenerse a la par de la demanda. El precio de venta al publico sugerido por Nvidia para la GeForce 8800 GT de 256MB es de $200 y $250 para la GeForce 8800 GT de 512MB. Por el momento el precio de las tarjetas con 512MB se mantiene en $270-$290 levemente por encima del precio sugerido pero es bastante común que suceda esto con productos recientemente lanzados

2,37 millones de discos Blu-ray vendidos en Europa

Los discos de alta definición todavía tienen un largo camino que recorrer antes de convertirse en cosa de todos los días, pero la tecnología Blu-ray definitivamente está acelerando el paso. Según la Asociación Blu-ray, se han vendido un total de 2,37 millones de discos Blu-ray en Europa. Estos dos millones de discos se han repartido entre aproximadamente 34.000 reproductores Blu-ray independientes, aunque obviamente si tomamos en consideración el PlayStation 3 veríamos a los discos repartidos entre muchos más reproductores.
La demanda para el equipo Blu-ray está creciendo, rápido. De continuar así este formato definitivamente ganará la guerra. Si el equipo Blu-ray quiere acabar de una vez por todas con los HD DVDs lo único que tienen que hacer es reducir dramáticamente el precio de sus reproductores. Muchos sostienen que lo único que detiene a este formato es su alto precio y no la competencia.
La llegada de la tarjeta GeForce 8800 GT ha hecho que muchos dueños de tarjetas GeForce 8800 GTS se arrepientan de haber gastado tanto.
La nueva 8800 GT no solo es considerablemente mas rápida pero sorprendentemente es mucho mas barata también. Muchos lectores se preguntan por que Nvidia decidió lanzar una tarjeta grafica que hace ver mal a todos sus ofrecimientos anteriores. En realidad es bastante simple. La GeForce 8800 GTX que fue lanzada hace un año esta en el ocaso de su vida.

domingo, 4 de octubre de 2009


Vista Service Pack 1 no afecta compatibilidad de software




El primer Service Pack para Vista ha sido llamado por muchos la salvación de Vista, ofreciendo muchos arreglos, mejoras de desempeño, y más. Sin embargo, el problema principal que muchas personas han tenido que enfrentar al migrar de XP a Vista es la compatibilidad de las aplicaciones. Hasta el día de hoy muchas aplicaciones que simplemente no funcionan como deberían en el nuevo sistema operativo.
¿Cambiara esto el SP1? En los mas minimo, según un reciente estudio. Se encontró que luego de instalar SP1, en general la compatibilidad de las aplicaciones con Vista se mantuvo igual. Sin embargo, este estudio también sostiene (igual que muchos analistas) que el hecho que la actualización no afecta la compatibilidad es algún positivo ya que si no se afecta las aplicaciones que están corriendo no hay como dañar la compatibilidad actual manteniendo la estabilidad del sistema operativo. Cuando Microsoft lanzó el SP2 para XP muchas personas presenciaron como muchas de sus aplicaciones dejaron de funcionar.

Últimamente, se argumenta que deberían ser los desarrolladores los responsables por la compatibilidad con Vista, pero yo pienso que Microsoft tiene mucho que ver en esto, más que los desarrolladores

Windows Vista vs Windows XP




Se ha publicado en Internet una estadística comparando la seguridad de Windows Vista con la existente en Windows XP. La comparativa habla sobre las vulnerabilidades encontradas en los primeros 90 días de venta al público de los sistemas operativos, Windows Vista y Windows XP.
27 Mar 2007, 13:53 | Fuente: ENCICLOPEDIA VIRUS

De acuerdo a ésta, en el mencionado periodo se han reportado 5 fallos en Windows Vista contra 18 descubiertos en XP.

Según los especialistas, no es bueno solo basarse en números en forma abstracta al hacer un estudio de esta categoría, deben incluirse otros factores que permitan obtener resultados objetivos y verdaderos.

A modo de ejemplo, si existen 4 vulnerabilidades en un sistema operativo de nivel medio y el otro a comparar tiene 1 sola pero crítica. Es más seguro para un atacante utilizar el fallo crítico, por ser fácil de lograr un éxito, que intentar con las otras 4 donde puede que no sea tan inmediato el mismo.

Otro factor a tomar en cuenta, es que tan accesible es el software en el mercado, además de su popularidad. Windows XP tuvo en sus 3 primeros meses un divulgación mucho más alta que la actual de Windows Vista.

El gran uso del software de Microsoft juega en contra de los usuarios. Como es muy conocido, las vulnerabilidades se descubrirán mucho más rápido que en otros sistemas operativos.

La fecha de aparición al público de Vista fue en enero de este año (2007), anteriormente solo se vendía con la compra de ordenadores, en forma pre-instalada.

También el factor de popularidad se ve ampliamente afectado por la alta seguridad incorporada en Vista. Su configuración toma mucho tiempo, lo cuál en XP no era así.

La tendencia en los usuarios es que sea todo fácil, rápido y sencillo. El incremento de seguridad ha hecho robusto al software pero puede que no tan solicitado.

Al ser una herramienta de lento crecimiento, los piratas informáticos no lo buscarán como fuente para sus ataques. Optar por un ataque en forma indirecta
Google se aventura en el mercado de la música en línea a través de una compañía de riesgo compartido formado en asociación con Top100.cn que permitirá a sus usuarios escuchar y descargar música con licencias sin ningún costo. Top100.cn, un recién llegado en el mercado chino de música en línea, tiene más de un millón de pistas que forman parte de las bibliotecas de importantes compañías como EMI, China Record, y Sony BMG. Esta compañía de riesgo compartido espera generar ingresos a través de la publicidad en línea.
Este nuevo emprendimiento busca competir con Baidu.com, que entre otras cosas, ha ganado mucha popularidad al ofrecer acceso a música pirata a través de sus resultados de búsqueda (actualmente gigantes como Universal, Warner, y Sony están preparando acciones legales para detener esta práctica). Durante el cuatro trimestre del año pasado, Baidu logró captar un imponente 60.1 por ciento del mercado chino. Google llegó en segundo lugar con el 35.0 por ciento, seguido por Yahoo China con el 9.6 por ciento. Esperemos que Google adopte esta practica en otros paises con alto indice de pirateria.

Como formatear el disco duro paso a paso
--------------------------------------------------------------------------------

Cómo formatear un disco duro

Pueden darse dos casos:
1.- Que el disco a formatear, sea o vaya a ser el disco del sistema operativo.
2.- Que sea un disco de datos.

El segundo caso, no presenta niguna dificultad, pudiendo formatearse tanto desde la línea de comandos (format d, como desde el interfaz gráfico (Mi Pc/Botón derecho sobre la unidad de disco/Formatear)

En el caso de que el disco duro sea actualmente, o vaya a ser el disco que contenga el sistema operativo, no podremos formatearlo como en el caso anterior, ni desde el simbolo del sistema, ni desde el interfaz grafico. Windows no lo permitirá.

En ese supuesto, hay que hacerlo sin cargar el sistema operativo completo. Para ello, se usa un disco de inicio. Los pasos a realizar son

1º. Con el Pc apagado, introducir el disco de inicio en la disquetera y después, con el ya puesto, encender el pc.

2º. Al terminar el proceso de arranque, aparecerá el simbolo del sistema. Debe aparecer:
A:\>
Una vez visible el simbolo del sistema, se teclea
A:\>format X: (X es igual a unidad C, D, E... y deben ponerse los dos puntos ":" finales)

Una vez formateado, hay que proceder a la instalación del sistema operativo

Vista 64 SP1 disponible, pesa 700MB

El desarrollo de Vista SP1 ha sido un proceso lento aunque hemos tenido la oportunidad de probar algo de lo que veremos en abril cuando finalmente sea lanzado. Sin embargo, muchos usuarios que están usando Vista 64-bit han podido descargar la actualización a través de Windows Update sin problemas. El tamaño de la actualización es bastante extenso, con peso de aproximadamente 700MB. Si tienes la oportunidad trata de descargar esta actualización que todavía no está disponible para todos.
Lee la noticia completa...

Todo Hollywood respalda al formato Blu-ray

Apenas un día después de que Toshiba anunció que no iba a seguir dando pelea, y por ende cediendo la victoria al formato Blu-ray de Sony, Paramount y Universal Studios para sorpresa de nadie anunciaron una nueva alianza con el formato de Sony, lo cual significa que los seis estudios de Hollywood más importantes respaldan el formato.
Lee la noticia completa...



El lanzamiento de las plataformas económicas para PC de Intel estaba programado para la segunda mitad de este año. Sin embargo, la producción ha ido mejor de lo esperado y según algunos Intel adelantará el lanzamiento bastante, incluso podría ser en mayo. Intel no se ha pronunciado sobre su nueva plataforma Shelton, pero entre más rápido la saquen al mercado mayor oportunidad tienen de dominar este creciente mercado.
Como menciona el artículo, Intel tiene una gran cantidad de capital y muchos de sus componentes han sido muy exitosos en el campo de los dispositivos móviles. También han logrado importantes avances en la carrera contra proyectos como el OLPC. Con la plataforma Shelton, Intel espera jugar un rol muy importante como parte de todas las computadoras “ultra” económicas asegurando su victoria sin importar que fabricante se destaque
pedidos por anticipado para Gears of War 2 para el Xbox 360? Bueno, parece que la compañía de ventas en línea estaba en lo cierto. Microsoft y Epic Games acaban de confirmar que Gears of War 2 será exclusivo para en Xbox 360 cuando sea lanzado en noviembre.
El anuncio oficial que dio Tim Sweeney de Epic en la conferencia Game Developer reveló solo unos poco detalles. El juego tendrá gráficos mejorados incluyendo sombras y efectos de agua más realistas, y un motor Unreal 3 modificados para incluir más de 100 personajes a la vez en una misma pantalla. Además, tendrá soporte para ciertos elementos físicos Ageia y el potencial para un ambiente destruible. Desafortunadamente, no se mostraron videos del ‘gameplay’ dentro del juego pero hay un breve tráiler animado disponible aquí.
Google reveló recientemente que financiará a Codeweavers, una compañía cuya aplicación Wine permite que aplicaciones de Windows corran en Linux, para que programas como Photoshop y otros de Creative Suite funcionen mejor en Linux.
¿Por qué Photoshop? Bueno, tal vez porque es la aplicación no-Linux que a muchos usuarios de Linux les gustaría tener y probablemente su falta disponibilidad es razón suficiente para que muchos no se cambien a este sistema operativo de código abierto. El financiamiento de Google ya hace que Photoshop CS y CS2 funcionen bien en Wine, aunque la versión CS3 aun no tiene soporte.

Google siempre ha respaldado la compatibilidad entre plataformas y ya usa Wine para la versión Linux de su aplicación Picasa para editar, taggear, y subir fotos. Pero el hecho de entregar efectivo para indirectamente incentivar la adopción de Linux parece más que nada un intento por socavar la posición de Microsoft a toda costa.
Microsoft presenta nueva iniciativa de interoperabilidad

En una jugada sorpresiva el gigante del software, Microsoft reveló en una conferencia de prensa realizada ayer una nueva iniciativa que busca fomentar la

Microsoft extiende la vida de XP Home hasta el 2010

Una gran cantidad de usuarios han protestado la muerte de Windows XP, y Microsoft finalmente ha escuchado sus pedidos. La compañía ha decidió revocar la decisión de eliminar el soporte para este sistema operativo y la venta de sus licencia por lo que Windows XP o por lo menos XP Home continuará en el mercado por lo menos dos años más. Es posible que esta extensión se prolongue aun mas para que las personas y fabricantes de PCs continúen comprando licencias. ¿Por qué Microsoft cambio de parecer? La fuerte demanda que XP Home tiene entre la nueva raza de portátiles de bajo consumo como la Eee PC de Asus.
Los económicos dispositivos de bajo consumo han encontrado un nicho entre un mundo de maquinas mucho más poderosas. La falta de RAM, GPU, y CPU limitan las funciones de Vista en esta maquinas por lo que fabricantes deben recurrir a sistemas operativos alternativos.

¿Sucederá lo mismo con XP Pr? Aunque parecía poco probable hace unos meses, hoy en día es una posibilidad latente. También hay que tener en cuenta que XP SP3 está programado para ser lanzado en unos meses. Los planes originales de Microsoft era que todas las PCs de rango medio tenga Vista desde este junio.
La semana pasada Microsoft estrenó tres actualizaciones de preparación para el primer Service Pack del sistema operativo Vista que en realidad son un pre-requisito para instalar su versión final. Sin embargo, una de estas actualizaciones aparentemente ha causado serios problemas para algunos usuarios. Esto llevó a que Microsoft rápidamente suspenda la instalación automática del paquete KB937287 luego de que varios usuarios se reportaron que sus computadoras no se iniciaban adecuadamente luego de aplicar la actualización.
Para los usuarios afectados que ya recibieron la actualización, la única solución
es reiniciar el equipo desde el disco original de Vista y restaurar el sistema al estado que estaba unos días antes de la actualización. Sin embargo, algunos usuarios han reportado fallas de hardware luego de restaurar sus equipos.

Nick White trató de minimizar el problema en el blog Windowa Vista Team al decir que solo una pequeña cantidad de usuarios fueron afectados. Microsoft esta investigado la causa de la falla, por lo que aún está por verse si este inconveniente afectará la fecha de lanzamiento para Vista SP1.

Adobe promete mejor desempeño con Photoshop de 64-bit¿Recuerdas los días el Athlon 64 y su promesa de un mejor desempeño usando tecnología de 64-bits? Por suerte existía el internet en ese entonces, y teníamos la suficiente información para por lo menos saber que los 64-bits no iban a marcar una diferencia. Pero este procesador era bastante rápido, y muchos lo compraron.Lo sorprendente de esta historia es que han pasado 5 años y la adopción de la tecnología 64-bit sigue en pañales. Adobe recientemente dijo que espera tomar plena ventaja de los procesadores de 64-bit con su próxima versión de Photoshop CS4, que será un lanzamiento exclusivo para Windows debido a cambios en OS X que han forzado la postergación de la aplicación para este sistema operativo. Las pruebas preliminares de Adobe muestra una mejora de desempeño notable, pero solo cuando el programa es empujando al límite, por ejemplo, al abrir un archivo de 3.2 gigapixeles en un sistema con mucha memoria. En esta circunstancias puedes esperar un desempeño hasta diez veces superior ya que no se depende del disco duro tanto. Pero para el usuario promedio de Photoshop, la mejora está entre el 8 y 12 por ciento según la compañía
Ahora que Microsoft trató de pasar por encima de mesa directiva de Yahoo para ir directamente a los accionistas, es poco probable que encuentren una manera amigable de solucionar este problema. Sin embargo, recientemente se reporto que ejecutivos de ambas compañías se han reunido para aparentemente discutir posibles salidas para la compra.Esto no necesariamente significa que Yahoo está listo para ceder. Seguramente lo que busca Yahoo es que Microsoft mejore la oferta, pero definitivamente este tipo de reuniones es señal de que Yahoo está dispuesto a negociar. Si esto no funciona espero que Microsoft tengo otro plan aparte de comprar compañías para competir con Google.