El siguiente, la solución a la pregunta de ¿Cómo meter en unos auriculares un sistema de sonido 7.1? El G35Surround Sound Headset tiene la respuesta.
Este sistema de auriculares con micrófono integrado incorpora una simulación de sistema de audio 7.1, ya que sería imposible el poner un 7.1 real. Incorpora la tecnología Dolby. Sus auriculares están pensados así para albergar la oreja por completo, aislando así al usuario de sonidos que podrían entorpecer su labor. Para simular un sistema de audio 7.1 se han utilizado transductores por láser de 40mm con imanes de neodimio, consiguiendo así una altísima fidelidad de audio, tanto en bajos como agudos. El micrófono que incorpora está pensado para que elimine ruidos de fondo, captando únicamente nuestra voz.
En lo que a ergonomía se refiere, el G35 incorpora 3 alfombrillas de diadema intercambiables, unas almohadillas para los oídos con el fin de aliviar posibles presiones y daños a la oreja. La diadema es ajustable en su totalidad a más de ser elástica, peor incorporando piezas de acero para darle robustez.
En el apartado de control del G35, éste incorpora 3 teclas programables, controles de audio mediante una rueda incorporada en una de las orejeras. Este G35 tiene un accesorio muy importante para personas que hablen por Internet en juegos, ya que nos brinda la posibilidad de elegir entre 6 perfiles de voz, de manera que no puedan reconocérnosla. El micrófono tiene la peculiaridad de que cuando lo movemos hacia arriba se desactive para no interferir en la acción de otros usuarios, pero, ¿como sabemos cuando se desactivo realmente? El micrófono incorpora un LED rojo que se activa cuando el micrófono se encuentra inactivo.
Como curiosidad, este periférico de Logitech, ganó un premio en el CES Innovations 2009.
El siguiente, el G19. El buque insignia de los teclados. Un teclado, que nada más verlo, nos va a dar la sensación de estar en un centro de mando espacial.
Pero, ¿qué nos ofrece este teclado? Pues bien, de lo que primero nos daremos cuenta, es de la pantalla LCD a color de 320x240, en contra de la del G15 y el G15v2, en la cual se muestra información acerca de juegos, datos de rendimiento, aplicaciones como pueden ser el TS, y la capacidad de que nosotros podamos modificar el código para que se muestre información de programas que no aparecen en ella. Alguno de estos programas, son el ya mencionado TS, Core Temp 0.99.4, juegos como el C&C 3 Tiberium Wars (y sus expansiones) C&C Red Alert 3, y el omnisciente WoW. El teclado, como con versiones anteriores, y, como pasa con el G13, las teclas vienen retro-iluminadas, con la diferencia de que nos da a elegir diversos colores, cosa que con el G15 no sucede. Y bueno, ¿dónde se vio un periférico de la clase G sin teclas programables? Pues este G19 nos ofrece hasta 12 teclas, en un total de 3 marcos, haciendo así posible el tener hasta 36 instrucciones distintas. Al contrario que con otros teclados más humildes, en éste se pueden pulsar hasta 5 teclas en simultáneo, sin que una de ellas, a pesar de haber sido pulsada, no haga su función. Ofrece la posibilidad de desactivar las teclas de Windows, de manera que así no nos interrumpan las sesiones de trabajo o juego, en las que se necesita toda la pantalla, por teclear la tecla que no se debía. Como pasa con el G15, este G19 trae incorporado 2 conectores USB, una distribución de cables inteligente, y controles multimedia integrados en él.
Pero no todo podía ser bueno en él. Su elevado coste, de casi 180€. A más de este inconveniente, para mover tal teclado, se necesita una gran cantidad de energía, lo que hace necesario que el teclado incorpore un adaptador de alimentación para su funcionamiento, un elemento, sin el cual, no lo podremos usar.
El siguiente componente de la serie G es el Logitech G13, un pequeño teclado suplementario que nos hará más cómodas las sesiones de juego mediante un periférico más reducido, y con las suficientes teclas para darnos un control total sobre la situación. El diseño está especialmente diseñado para ofrecernos la máxima comodidad gracias a su forma adaptada a la mano, permitiéndonos así llegar a todas las teclas. A más, los botones son cóncavos, de manera que nos ofrecerá más comodidad si cabe. Este pequeño teclado nos ofrece la garantía de que se mantendrá sólido cuando la situación lo requiera, ya que los pies están especialmente colocados, y la base es muy sólida.
Este teclado, nos ofrece 25 teclas programables para adaptarlas a nuestro estilo de juego, a más de marcos programables para realizar tareas complejas mediante un solo clic sin necesidad de hacer nosotros todo el proceso. El G13 lleva integrado un pequeño joystick con el que realizar maniobras rápidas. Las teclas, como pasa con diversos modelos, como por ejemplo, el G15, G15v2 y el G19, están retroiluminadas, cosa que al principio puede ser de mucha utilidad para escribir o jugar con baja luz, pero que, al final, te resultarán inservibles ya que no te pararás ni a mirar las teclas. Cuenta a más, con una pantalla LCD con unas dimensiones de 160×43, que nos ofrecerá soporte para ciertos juegos (C&C 3 Tiberium Wars) o ciertos programas (Core Temp).
El G13 nos ofrece una memoria integrada que nos permitirá guardar nuestras preferencias allá donde lo llevemos, ya que esto podría ser un teclado de bolsillo.
En esta nueva entrada les traigo un análisis de la serie G de Logitech, una serie especialmente concebida para jugones. En este artículo trataré de comentar todas las opciones que nos ofrece la serie G de la marca suiza. Los periféricos a tratar son: G9, G13, G19, G35 y G51
Este ratón está especialmente diseñado para jugones ofreciendo hasta 3200dpi y hasta 1000hz como frecuencia de actualización. Su diseño nos ofrece la posibilidad de cambiarlo mediante un conjunto de 2 tapas; la XL y Precision. La XL nos ofrece una superficie satinada y un amplio diseño para una mayor comodidad en la sujeción. La Precision es más compacta y proporciona un mayor grado de control. El G9 nos ofrece el poder utilizar nuestro estilo de juego en cualquier PC en el que estemos, ya que nos da la posibilidad de guardar hasta 5 perfiles con nuestras configuraciones.
Este ratón, nos ofrece a más la posibilidad de regular la rueda, utilizando el habitual click to click, o dejar que la rueda gire sin ninguna restricción, facilitando así la navegación por páginas Web. Este G9 también nos ofrece la posibilidad de hasta ajustar su peso mediante un conjunto de pesas que llega hasta los 28g, que insertaríamos en el interior del ratón mediante una bandeja que incorpora, de tal manera que no molesten al usuario. En lo referente al apartado estético, este ratón nos ofrece a todos luces mediante diodos de diversos colores, y un conjunto de tapas intercambiables.
Ya comienzan a aproximarse los lanzamientos de la próxima generación de tarjetas gráficas, y ya comienzan a surgir rumores sobre 2 nuevas bestias. La ATI Radeon HD5870 y nVidia GF 300 Series. Estas traerán mejoras muy significativas.
La ATi Radeon HD5870 vendría con el nuevo núcleo RV870. Sería a más una de las primeras, si no la primera, en ser completamente compatible con DirectX 11, versión que vendrá de la mano de Windows 7, el cual llegará sobre finales del 2009, lo que hace pensar que estas bestias salgan a la venta sobre esas fechas.
Las supuestas características de esta ATi 5870 y su versión doble demuestra que serán considerablemente más potentes que sus antecesoras, indicando algunas fuentes que podrían llegar a duplicar el rendimiento, que a mí, personalmente, me parece exagerada esa afirmación.
La llegada de esta gráfica podría verse beneficiada por la contratación de Bob Drebin, ex-directivo de ATI, por parte de la compañía Apple, ya que ésto podría cambiar la hegemonía actual de nVidia en Mac, decantándola más a favor de ATI.
Datos de la HD 5870
·GPU clock: 900 MHz.
·Memory clock: 1100 MHz.
·Performance: 2160Gflops.
·Texture fillrate: 43.200MT/s.
·Pixel fillrate: 28.800 MP/s.
·Bandwidth: 140.8 Gb/s.
Datos de la HD 5870x2
·GPU clock: 950 MHz.
·Memory clock: 1150 MHz.
·Performance: 2280Gflops.
·Texture fillrate: 45.600MT/s.
·Pixel fillrate: 20.400 MP/s.
·Bandwidth: 147.2 Gb/s.
En lo referente a la competencia de la ATi 5870 y el RV870 hay que fijarse en su principal rival, nVidia, quien lleva ya unos cuantos meses preparando el procesador GT300, trayendo consigo mejoras substanciales.
Algunos apuntan a que el GT300 será la GPU que traerá realmente un cambio de generación, ese cambio que toda la gente que apuesta por nVidia lleva tanto tiempo esperando, en lo referente a sus procesadores. Algún ejemplo podría ser la mejora para ejecutar instrucciones con CUDA, algo que parece, y desde la propia nVidia apuntan, será uno de los pilares centrales de la compañía en los próximos años. Es casi seguro que el proceso de fabricación actual de 65 y 55nm sea substituido por los 40nm, mejorando así los tiempos de ejecución, y reduciendo las temperaturas, que en algunos casos, ya son extremas. Sin ir más lejos, yo pude poner una GF EN9800GX2 a 100º.
La fecha de lanzamiento concreta es desconocida, como en el c aso de ATI, pero de igual manera, se espera que lleguen a finales de 2009, con la salida de Windows 7 pudiendo así aprovechar las ventajas que traiga consigo DirectX 11. Tampoco se tienen claro los nombres de los modelos, pero siguiendo con la lógica de la generación actual, posiblemente sus nomenclaturas únicamente cambien en el 300, en lugar del 200 actual. Se desconocen las características más técnicas que podrían tener estos modelos.
Los precios son completamente desconocidos, pero no creo que vayan muy desencaminados de los precios actuales de las gráficas de gama alta actuales (250 € -500€)
CryEngine / Crysis – Definición de Fotorrealismo, potencia en estado puro-
El último, CryEngine, pero el más potente de los 3 engines. CryEngine 2.0, que ya ha podido ser observado en Crysis, y en Crysis Warhead.
El equipo que está tras la creación de esta sofisticadísima herramienta son los chicos de CryTek, creadores de Crysis, uno de los juegos más impactantes, si no el que más, a nivel gráfico según mi criterio. CryTek, una compañía de origen alemán, fue fundada en 1999. Ha estado siempre especializada en la creación de motores gráficos, hasta que un cúmulo de casualidades provocó su irrupción en el mundo del desarrollo de videojuegos de la mano de Far Cry.
Fue este memorable shooter ambientado en una isla tropical infestada de criaturas mutantes el que les puso en el mapa como estudio, en lo que no pretendía ser más que una demostración de su primer trabajo: CryEngine 1.0
Por otro lado hay que destacar que el videojuego, pese al aplauso de la crítica a nivel mundial, tuvo serios problemas en su país de origen, donde el hecho de ser alemán no fue motivo suficiente para que el título fuese censurado en sus partes más violentas por las autoridades alemanas. A pesar de esta medida, los aficionados descubrieron rápidamente que alterando una serie de elementos del código del programa se podia saltar cómodamente esta censura, desbloqueando así la sangre y las físicas del cuerpo para la muerte de los enemigos.
La atención de CryTek por su videojuego de debut no acabó en el momento de su puesta a la venta, pues durante años continuaron trabajando en parches y actualizaciones que potenciaban aún más su ya de por sí rotundo apartado gráfico. Así el videojuego llego a la versión 1.4 incorporando, entre otros, soporte para HDR o para microprocesadores de 64 bits.
Pasado un tiempo, una pequeña parte del equipo de CryTek continuaba ocupado en actualizaciones y parches para Far Cry, el resto trabajaba incesante en una revisión del CryEngine y en Crysis, lo que desde el estudio consideraban la mejor forma de mostrarlo a la industria. El videojuego se convertiría rápidamente en uno de los más esperados del 2007 por la enorme calidad de las screens y videos mostrados. A más, la prensa especializada se deshacía en elogios hacia su apartado jugable. CryEngine 2.0 se convertía de este modo en el máximo exponente visual del momento, y pese a las discretas ventas del título se sentaban interesantes bases sobre las que trabajar en un futuro.
Con el serio varapalo de ventas que supuso el deficiente rendimiento de Crysis como exclusivo de PC, desde CryTek se advirtió que éste seria el último videojuego exclusivo de esta plataforma que harían, a excepción de Warhead. El shooter para compatibles superó el millón y medio de copias vendidas, aunque esa cifra estaba muy por debajo de las estimaciones del estudio alemán y de EA, que se encargo de su distribución.
Cevat Yerli, director del proyecto, afirmaba que: “Por cada Crysis comprado se piratearon 20”. “A partir de Crysis Warhead todos nuestros juegos serán multiplataforma”. Pero, a esta afirmación de Cevat Yerli, se le unió la pregunta ¿Están preparadas en términos de hardware las consolas actuales para mover con garantías un engine como éste? CryTek parece tenerlo claro. “CryEngine 2 funcionará en consolas como en un Pc de gama alta”, recalcando a más que “cada juego de CryTek tendrá algo que ofrecer a cada plataforma, y aprovechará cuidadosamente las capacidades y fortalezas (…) de cada máquina de lanzamiento”.
CryEngine 2.0 está siendo empleado ya en abundantes videojuegos que se encuentran ahora mismo en desarrollo. Entre ellos se cuentan el MMORPG Entropia Universe, Merchants of Brooklyn, Forged by Chaos o Blue Mars entre otros.
Como algunas curiosidades acerca de este engine se puede hacer hincapié en el que más de un millón de líneas componen su código, y de los más de 6Gb que ocupa la instalación de Crysis, catalogado por CryTek como el más exigente del momento, 4Gb eran exclusivos sólo para texturas. Otra curiosidad podría ser que durante el desarrollo de Crysis la policía alemana irrumpió en las oficinas de CryTek debido a que una investigación apuntaba al uso de software ilegal en las oficinas pero finalmente la acusación resulto ser falsa.
Si anteriormente hablé de Epic, una compañía vendedora, ahora hablaré de Rockstar, que es justamente lo contrario.
Hasta 2006 Rockstar se había abastecido de discretos motores como Renderware, creado por Criterion (Creadores a su vez del juego Burnout), con el que desarrollaron GTA III, GTA: Vice City, GTA: San Andreas o Canis Canem Edit. A pesar de lo cómodos que aparentaban sentirse comprando motores gráficos desentendiéndose así completamente de una de las más engorrosas fases de la producción, hubo finalmente dos factores que hicieron cambiar por completo su política de desarrollo. El primero fue la compra de Criterion por parte de EA. El segundo es la apuesta de Rockstar por la independencia más absoluta en el desarrollo de un videojuego, presentando así su primera herramienta de programación propia: RAGE.
El debut de RAGE fue con el fantástico Table Tennis, demostrando una versatilidad enorme y ofreciendo uno de los mejores trabajos de modelado sobre personajes que se habían visto hasta la fecha. Table Tennis resultó un atípico ejercicio técnico y uno de los primeros exponentes visuales de XBox 360.
Esta demostración, sin embargo, no era motivo para que se mantuvieran las dudas sobre la mutabilidad de la herramienta, puesto que con el anuncio también se revelaba el desarrollo de GTA IV. Un título deportivo con apenas dos personajes en pantalla como Table Tennis no era la mejor forma de comprobar las capacidades de un motor que debía de ser la piedra angular de la compañía en el futuro. ¿Sería capaz este engine de adaptarse a un mundo gigantesco como el de Liberty City? ¿Se resentirían mucho los decorados y modelados con el cambio? ¿Empezaría Rockstar a licenciar el motor a otras compañías? Las respuestas se dieron cita en abril de 2008 con el lanzamiento de GTA IV, demostrando que el trabajo en la producción de esta herramienta por parte de Rockstar San Diego y Rockstar North habia sido ejemplar. Liberty City no sólo era descomunal y muy detallada, sino que carecía por entero de tiempos de carga y ofrecía unas físicas impresionantes y unos trabajos sobre vehículos y personajes dignos de mención.
GTA IV no solo suponía una brillante demostración de intenciones en términos de tamaño y tasa de imágenes por segundo, sino que también ofrecía abrumadores detalles como la gente corriendo a cobijarse bajo la lluvia, la física de fluidos en general o el extraordinario sentido de la suspensión de los ejes de los vehículos.
Pero todo esto no lo lograría únicamente RAGE, pues el motor trabaja en conjunto con Euphoria, una herramienta únicamente destinada al campo de la física creado por NaturalMotion, que tiene en cuenta detalles como la musculatura de los cuerpos, el volumen de los elementos y el propio sistema motriz de los personajes.
Euphoria... una auténtica barbaridad en términos de programación que, en conjunto con RAGE, ha dejado momentos tan brillantes como tropezones de Niko con las aceras en estado de embriaguez, o una física de colisiones para vehículos y seres humanos nunca vistos hasta ahora.
El engine de producción propia de Rockstar fue empleado también con notables resultados en Midnight Club Los Angeles, y en The Lost and Damned, la expansión en forma de contenido descargable del propio Grand Theft Auto IV. Parece, por lo tanto, que el futuro de Rockstar pasa por el uso de este complejo engine, lo que asegura a la compañía fundada por Dan y Sam Houser una herramienta versátil y poderosa para los próximos años.
Uno de los más conocidos enla actualidad es el Unreal Engine 3.0, desarrollado por Epic. El trabajo de Epic en este campo es ya una eminencia, pues éste ya tiene sus precedentes desde la creación del primer Unreal Engine 1.0 en 1997, hasta el actual 3.5.
El mundo de los motores gráficos está repleto de compra/venta, y Epic es una compañía que, durante su historia ha sido uno de los vendedores en este mundo. Así mismo, con el unreal engine 1.0, se crearon diversos juegos entre los que se incluyen: Clive Barker’s Undying, Deus Ex...
Cuatro años después, el motor de Epic tuvo su primera revisión, ésta fue la 1ª que realmente otorgó enormes beneficios por venta de licencias, más incluso de lo que facturarían por la venta de sus propios juegos. Este motor entró en el mercado de la mano de America’s Army, convirtiéndose así en una de las herramientas más comunes de ese momento, acompañado de lanzamientos como: Brothers in Arms, Thief: Deadly Shadows o SWAT 4. La versatilidad de este motor ha hecho que se siguiese usando hasta no hace mucho, de la mano de juegos como Ghost Recon Advanced Warfighter.
Ya en la 3ª generación de este motor, unos pocos juegos empezaron a utilizar la potencia brutal de el último lanzamiento (en lo que a motores 3D se refiere), el Unreal Engine 3.0. Esta ultima revisión del motor, suponía un salto drástico en cuanto a calidad y performance se refiere. Su diseño está pensado para sacar partido a las librerías de DirectX 9 y 10 y del potencial que ofrecen las consolas de última generación, la XBOX360 y la Play Station3. A pesar de los precedentes, su presentación al mundo no fue todo lo exitosa que se esperaba, ya que dejó muchísimas dudas a nivel técnico. Pero era únicamente cuestión de darle tiempo al tiempo. Mucho se hablaba ya de las impresionantes capturas de pantalla de Gears of Wars (1r juego en utilizar el Unreal Engine 3.0, creado por Epic Games), de las aventuras de Marcus Fenix, pero había algo que despertaba muchas dudas, el que no se publicase ni un solo video in-game, escamaba a todos. A más, Microsoft no lo consideraba el abanderado de su consola, pero, que finalmente, sí lo acabaría siendo. La muestra en el E3 de Los Angeles disipó las dudas del primer título que utilizaría la potencia del Unreal Engine 3.0, pero dejó mal sabor de boca en lo que se refiere a la faceta técnica del motor, ya que se mostró deficiente, con una tasa de transferencia de imágenes de lo más caprichosa (Fotogramas por segundo) e innumerables problemas de sincronía vertical, a más de los dientes de sierra, hacían que el producto final no acabsse de funcionar como se esperaba. Junto a todos estos problemas las dudas no tardaron en llegar.
A pesar de todos esos problemas, el motor creado por los chicos de Epic no paraba de venderse y facturar más millones para la compañía creadora. Incluso compañías como Activision, Atari, Electronic Arts o Ubisoft se hacían con los derechos del motor para poder utilizarlo en futuros títulos de su producción. Las dudas que despertó en la E3, fueron completamente disipadas en noviembre del 2006, cuando el primer lanzamiento de Gears of Wars fue un éxito total, a todos los niveles. Desde entonces un buen puñado de títulos utilizan este Unreal Engine 3.0, algunos tan célebres comoBioshock, I am Alive, Mass Effect o Mirror’s Edge.
A pesar de la disipación de toda duda en noviembre del 2006, el UE3.0 siguió generando polémicas. La palma se la acabaría llevando Silicon knigths con su Too Human, que decidió embarcarse en un costoso proceso judicial contra Epic, alegando que estos estaban saboteando su trabajo, ya que decían que no les ofrecía todo el rendimiento, a más del soporte adecuado, contratados con la licencia del UE3.0. “Epic nos ha defraudado a nosotros y a buena parte de la industria”, declaró Dennis Dyack, el demandante, a lo que desde Epic se contestó que “pretenden usar nuestra tecnología licenciada sin pagar por ella y sin cumplir las condiciones”. Finalmente, Silocon Knigth se desharía del UE3.0 y utilizaría un motor propio, acabando así con un juego medianamente correcto sobre el que se tenían depositadas muchas esperanzas de que fuese uno de los mejores títulos de la fecha.
Por otro lado, cabe destacar que los resultados ofrecidos por el UE3.0 dependen mucho de quien lo utiliza, y a que se necesita un buen equipo de diseño para poder sacar un buen partido de él. Ya que no solo se podían ver tremendos éxitos en el apartado gráfico y tecnológico, juegos como Hour of Victory o Legendary resultaron ser un desastre total tanto en el apartado gráfico como en el tecnológico.
Cabe destacar que hasta ahora Unreal Engine ha estado vinculado únicamente con PC, Play Station 3 y XBox360, las plataformas más avanzadas. Pero, ¿realmente atrae el éxito de Wii a Epic? La respuesta clara por parte del máximo responsable es no, e incluso la llegó a tachar de "virus" (un calificativo que me parece completamente fuera de lugar, a más de excesivo), ya que "La gente juega con ella dos meses y luego deja de utilizarla". Posteriormente, Mark Rein, uno de los altos cargos de Epic, fue más sutil, pero lo dejó igual de claro el desinterés de Epic. Citando textualmente, dijo: "Wii no es nuestro medio. Nuestra área de especialización se orienta a consolas de alto nivel". "Que Epic trabaje para la consola de Nintendo es como preguntarle a un escultor cuando va a comenzar a pintar".
Como último añadido, paso a comentar que en el lanzamiento de la segunda entrega de las aventuras de Marcus Fénix, en Gears of Wars 2, el motor fue mejorado, pasando así a su etapa 3.5. En ésta se produjeron varios cambios en la física de iluminación, a más de un mayor soporte y aprovechamiento del Hardware, pudiendo así incrementar el número de unidades simultáneas en pantalla.
PLC, son siglas que provienen del ingles, el cual traducido nos indica: comunicaciones mediante cable eléctrico. Esta tecnología, utiliza la instalación de suministro eléctrico para crear conexiones de banda ancha a la red.
Pero, por que no es aprovechada esta tecnología a gran escala? Por que únicamente es aprovechada como una alternativa al Wi-Fi en una casa?
Bien, primero explicare el porque de su aprovechamiento como alternativa al Wi-Fi en las casas.
La tecnología PLC que un número creciente de usuarios esta adoptando como alternativa al Wi-Fi, se esta popularizando debido a las ventajas que ofrece frente a la tecnología inalámbrica:
-Con una red casera mediante PLC, se logra reducir drásticamente la perdida de paquetes, mientras que con Wi-Fi, esta perdida es más acusada. -Ofrece una mejor respuesta (con esto me refiero a un "ping" más reducido) debido a que la información no debe de ser tratada de ningún modo, simplemente pasa por el adaptador PLC, a nuestra red eléctrica, y posteriormente a nuestro PC. En Wi-Fi, la información debe de ser tratada y enviada mediante ondas de radio, y esto tiene una gran desventaja, ya que a medida que ponemos obstáculos frente al emisor de la señal (en este caso un router), la señal que recibiremos será más débil, y con una mayor pérdida de paquetes. -La seguridad de estas redes se puede considerar de las más seguras a nivel doméstico. Es cierto que nos podemos preguntar: "¿Y si vivo en un bloque de pisos, no me pueden robar la línea mis vecinos?" La respuesta es no, ya que la intensidad con la que llegarían los datos a ellos, seria tan pequeña que apenas podrían llegar a rescatar nada. -Las 2 necesitan de una inversión en periféricos, ya bien sea los adaptadores PLC, o bien una tarjeta Wi-Fi o un receptor USB para poder recibir la señal. -No requiere instalaciones adicionales ni cableado extra, pues utiliza el cableado eléctrico de la casa, y las propias líneas de alta tensión en caso de que llegue a aplicarse a gran escala.
Esta tecnología se lleva desarrollando ya desde los años 90, cuando las compañías eléctricas pensaron en si seria posible el trasmitir sus datos entre si, mediante la red eléctrica. Y aquí es cuando les llego la gran idea; "Si la podemos utilizar nosotros, se la podríamos vender a los usuarios", y así fue como sucedió, en España, tenemos una red experimental PLC en Zaragoza (Ignoro si aun permanece). Y como ya muchos han podido ver, si que es posible, e incluso es posible el llegar hasta los 200Mb. Pero esto nunca pasara, a nadie le interesa que los usuarios lleguen a tener tal tasa de transferencia.
Pero esta tecnología tampoco esta libre de problemas, ya que se ve muy afectada por las interferencias eléctricas, pero este podría ser considerado un problema menos, si tenemos en cuenta todas su ventajas.
La aplicación de esta tecnología a gran escala esta más avanzada en Europa que en los Estados Unidos, debido a su política de creación de redes eléctricas. En Europa, la energía se transmite a altos voltajes con tal de perder la menor cantidad de energía posible, al igual que en Estados Unidos, pero la diferencia viene en el momento de bajar la tensión para el suministro a los hogares. En Europa se utilizan grandes transformadores que abastecen a un número de entre 10 y 100 hogares, y en Estados Unidos, utilizan un pequeño transformador para cada casa, dificultando de gran manera el desarrollo de esta tecnología. Es por esto, que la utilización a gran escala de este sistema, esta más próximo de aplicarse en Europa que en Estados Unidos. Pero esto no lo veremos, pienso yo, hasta que las compañías se ingenien alguna manera con tal de poder degradar el servicio, ya que como dije antes, a nadie le interesa que un usuario común tenga tasas excesivamente altas de transferencia (Con el PLC, se podría suministrar hasta 50Mb por hogar)
La feria de CeBIT que se celebrará en Hannover del 3 al 8 de Marzo, ya a calentando motores. Pero esta gran convención se presenta con un triste telón de fondo, la crisis, cosa que repercute tanto en la misma feria, como en los propios fabricantes de componentes, que se ven seriamente afectados en el desarrollo de nuevas tecnologías. Pero parece ser que ASUS nos tiene reservadas algunas sorpresas, como es esta Asus Marine Cool, que se presenta como una de las mayores novedades de esta feria.
ASUS apuesta fuerte, y durante este año conoceremos importantes datos de este proyecto en desarrollo. Uno de todos estos proyectos, es el que les traigo en este momento; con la nueva Asus Marine Cool, que presenta importantes novedades para mejorar la refrigeración y la resistencia de esta monstruosa placa, que más que una motherboard, aparenta más n prototipo de una base lunar.
Esta placa en lo referente a los materiales utilizados, nos devuelve a tiempos ya pasados, sobretodo por la utilización de cerámica micro porosa con tal de disipar de una manera más eficiente el calor generado. Incorpora a más un sistema de refrigeración líquida integrada. La parte posterior de la placa, esta revestida también con material cerámico, con lo que podáramos percibir grandes mejoras a nivel térmico.
A parte de esto, poco más se conoce de esta placa, pero lo que si me puedo imaginar, es que su precio no será barato, ya que podría rondar los 500€ o más.
Los plagiadores de Microsoft, han tenido una genialísima idea!!! Sí! Transformar su XBOX360 en una plataforma wii más potente! Pero para eso, antes tiene que hacer, lo que mejor sabe hacer. Absorber a una empresa más pequeña y débil, con el fin de obtener todas sus investigaciones. Señores de Microsoft, no son capaces de pensar por si mismos? Es cuanto menos curioso, que lo que más éxito a tenido, provengan de empresas absorbidas. Señor Steve Ballmer; no eran ustede el que decia que: "Linux (ejemplo de programa de licencia libre) era un cancer que se aferra de la propiedad intelectual de todo lo que toca?" No hablen tanto, y prediquen con el ejemplo...
Pero bueno, vamos a la noticia...
Hacerse con la tecnología de la empresa 3DV Systems, es de vital importancia para el proyecto. La importancia de esta empresa radica en una tecnología capaz de detectar y capturar los movimientos con el fin de trasladarlos al juego.
Solo imagínense un juego tipo wii, pero con unos gráficos tipo Gears of wars, o bien algún tipo de Call Of Duty. S in ningún tipo de control, únicamente con nuestros movimientos frente a una camara, que como promete 3DV Systems, será de muchísima más calidad que las actuales.
En el mercado actual, tenemos 3 modelos de procesadores Intel core i7, y con un significativo cambio en lo que se refiere a rendimiento. En esta gama, han sido retrasados la presentación de nuevos modelos, previstos en julio, y que posiblemente se retrasen 1 o 2 meses.
Estos nuevos procesadores de Intel, tendrán el nombre de Lynnfield, y en un principio se presentaran como la gama más baja y ajustada de precio de Intel, ya que estos en la actualidad, son muy caros.
Se cree que las diferencias con los modelos de gama alta de los i7, vendrían a ser:
-Reducción de precios respecto a la gama alta de i7, rondando los 100€. -Reducción de la potencia de estos procesadores, respecto a la gama alta de i7. -Eliminación del "triple channel", en favor del actual dual channel. -Regreso del FSB, respecto al QuickPath utilizado por la gama alta de los i7.
Para este año 2009, Intel tiene muy buenas noticias, y novedades, pero a causa de la crisis, posiblemente tengamos que esperar hasta el 2010.
Para empezar, cabe aclarar que: La SAPPHIRE HD 4870 X2 ATOMIC es un producto de edición limitada embalada en una caja de aluminio con accesorios dirigidos a los entusiastas, incluyendo adaptador HDMI, cable HDMI cable, lámpara CCL UV y memoria USB SAPPHIRE, así como el driver y otras aplicaciones software. Asi que los que se hallan enamorado a primera vista, tendran muy poco tiempo para conseguirla.
Presentando un Sistema de refrigeración líquida, la SAPPHIRE HD 4870 X2 ATOMIC ofrece una refrigeración cercana a las Workstation para el PC, permite velocidades de reloj más rápidas y operaciones más silenciosas, y cómo no, un rendimiento gráfico aún más rápido hasta ahora visto en cualquier otra solución gráfica de un slot. Ambas GPU’s en la SAPPHIRE HD 4870 X2 ATOMIC están a 800MHz y cada una tiene 1GB de memoria DDR5 a 1000MHz, haciendo un total de 2GB de memoria dedicada. La refrigeración ensamblada en la tarjeta gráfica de un solo slot, puede enfriar las dos GPU’s y sus respectivas memorias. Permite al sistema dual trabajar con un alto nivel de estabilidad incluso cuando se requiere de los mayores niveles de rendimiento. Es la gráfica más rápida actualmente disponible.
La refrigeración líquida en la SAPPHIRE HD 4870 X2 ATOMIC circula a través del refrigerador de la gráfica y un chasis montado por un radiador que se fija en el sistema de la CPU. El refrigerador gráfico, el de la CPU y el radiador son conectados en un circuito cerrado con tubos Teflon flexibles de alta calidad que son asignados a cada módulo con articulaciones ajustadas y selladas para que duren toda la vida. Refrigera eficientemente el sistema CPU incluso aquellos sistemas acostumbrados a aumentar las velocidades.
La SAPPHIRE HD 4870 X2 ATOMIC incorpora la última tecnología ATI Avivo™ HD para mejorar el video y ofrece características como la segunda generación UVD para decodificar contenido Blu-ray™ y HD DVD para codecs VC-1 y H.264, así como archivos mpeg, reduciendo la carga de la CPU al mínimo. La SAPPHIRE HD 4870 X2 es compatible con HDCP y con la última generación de displays High Definition. Como otros productos de la serie HD 4800 también soporta HDMI.
Todo esto ya comentado, esta por encima de los 500€.
ASUS se decidio de tirar por el camino de lo grande, y a un precio asequible a la hora de presentar su nueva gama de monitores para PC's panoramicos. Estas nuevas pantallas LCD, con 4 modelos en total, de los cuales 2 son de 24", y los otros 2 de 26", estos són:
La variante VK integra una camara web de 2M pixeles para el monitor VK266H, y de 1'3M pixeles para el VK246H.
Todos los modelos estan preparados para alta definición 1080. Los modelos de 24" utilizan una resolucion de 1920x1200. Todos poseen entrada HDMI con soporte para HDCP con lo que podremos conectarle sin ningun problema un reproductor de Blu Ray.
Otras de sus especificaciones tecnicas, es el impresionante contraste que ofrecen de 20000:1. un tiempo de respuesta muy vajo de 2ms de gris a gris, una luminosidad de 300cd/m2, y un angulo de vision de 170º.