domingo, 17 de septiembre de 2017

Resident Evil en 16 bits: Descarga la demo de Resident Evil para Sega Mega Drive

Una interesante demake hecha por rusos

Resident Evil, el juego que definió el género survival horror en la Playstation, está tratando de expandir su legado de vuelta a la era de 16 bits. Un grupo de aficionados está desarrollando un Resident Evil en 16 bits para Sega Mega Drive y ya puedes descargar la demo.

Finalmente, después de casi dos meses de trabajo, el sitio web PSCD.ru ha lanzado una demo de Resident Evil en 16 bits para el Sega Mega Drive / Genesis. No se dieron detalles de la historia, pero sobre la base de capturas de pantalla y la demo, parece que Claire Redfield jugará un papel importante en el juego. La demo es muy corta, pero muestra varios conceptos claves de la jugabilidad como una representación de 16 bits de la icónica pantalla de inventario del Resident Evil y una vista isométrica en tercera persona (un detalle muy interesante ya que no hay muchos juegos isométricos para la consola de Sega). El nivel mostrado parece tener lugar en la Mansión Spencer, que se encuentra infestada de zombis, compuesto por largos pasillos, una enorme escalera en medio de un gran vestíbulo, y un garabato sangriento de “RedRum” en una pared de baño en una aparente referencia a la película The Shining del maestro Stanley Kubrick.

Esta versión de Resident Evil en 16 bits está, obviamente, todavía en las primeras etapas de desarrollo, pero el equipo ruso de PSCD está comprometido a seguir adelante para poder terminarlo (siempre y cuando Capcom no decida tomar cartas en el asunto y dar de baja el proyecto como suele ser común en este tipo de casos). Lanzado en 1996 para PlayStation y más tarde adaptado para Windows, Sega Saturn y Nintendo DS, Resident Evil nos presenta a Chris Redfield y Jill Valentine, miembros del grupo de élite S.T.A.R.S., mientras investigan en las afueras de Raccoon City tras la desaparición de los miembros del equipo Bravo. Pronto quedan atrapados en una mansión infestada de zombis y otros monstruos a los cuales deberán enfrentar para poder escapar. La descarga de Resident Evil en 16 bits es un ROM, así que te recomendamos usar el emulador GENS para poder jugarlo sin inconvenientes.

Fuente:
http://www.neoteo.com/resident-evil-en-16-bits-descarga-la-demo-de-resident-evil-para-sega-mega-drive/

 

¿Cómo funcionaba el sistema de trucos «Game Genie»?

Un verdadero clásico para obtener vidas infinitas y más

Algunos juegos podían ser particularmente brutales con su dificultad, y cuando el desarrollador no habilitaba ninguna clase de ayuda, la única opción para los jugadores era adoptar un sistema externo de trucos. Los tres nombres principales del mercado eran Action Replay, GameShark, y el Game Genie, tan repudiado por Nintendo que incluso demandó a uno de sus distribuidores originales. Hoy vamos a ver de cerca el funcionamiento del Game Genie, y a decir verdad, es mucho más complicado de lo que imaginamos…

Existe una vieja frase para describir la dificultad de juegos clásicos, y es «Nintendo Hard». Battletoads, el primer Contra sin códigos Konami, Castlevania, Ghosts ‘n Goblins, Ninja Gaiden, Mega Man, TMNT, Punch-Out!…títulos implacables si los hubo. La idea era que el jugador siempre volviera por más, pero en muchos casos la frustración se hacía tan grande que quedaban a medio terminar. Claro que… llevar la dificultad al máximo no fue algo exclusivo de Nintendo. El resto de las plataformas no se quedaban atrás, y la búsqueda de trucos era constante. Seamos sinceros: La mayoría de las publicaciones dedicadas a los videojuegos en los ’80 y ’90 existían para compartir trucos, trampas y atajos. Sin embargo, eso adquirió otra dimensión con el lanzamiento de los «cheat systems», entre los que se destaca el Game Genie.

El vídeo explica todos los detalles técnicos sobre la interacción entre el Game Genie y las diferentes plataformas para las que fue lanzado. Características esenciales como el procesador de las consolas y el uso de «bank switching» cambiaban radicalmente su funcionamiento, pero en términos relajados podemos decir que el Game Genie es un «hombre en el medio» que intercepta la comunicación entre la ROM del cartucho y la consola. Todo lo que debía hacer el jugador era ingresar un código especial para modificar un par de bytes vinculados a un elemento dentro del juego, por ejemplo, la cantidad de vidas disponibles o el tiempo restante. Cuando el procesador necesita ejecutar o leer algo desde la ROM, el valor dentro del cartucho se almacena en un registro interno. El trabajo del Game Genie es monitorear cada lectura de la ROM, y si uno de los códigos afecta a una ubicación de memoria, «secuestra» la señal para reemplazarla con otro valor.

Esta técnica hace que un código sólo pueda leer y/o modificar una zona de memoria a la vez, por lo tanto, el Game Genie aceptaba entre tres y cinco códigos como máximo. El «bank switching» complica aún más las cosas, porque en el proceso de «intercambio», una dirección de memoria idéntica no siempre corresponde al mismo valor de la ROM. El Game Genie no tenía forma de saber qué banco ROM había sido mapeado en memoria, y su solución parcial era sumar un valor extra de comparación (o chequeo de integridad) en el código. El Game Genie estuvo disponible para NES, Game Boy, Sega Game Gear, Super Nintendo y Genesis/Mega Drive. Muchos jugadores aún creen que el Action Replay y el GameShark son opciones superiores (crear tus propios códigos no daba tantos dolores de cabeza), pero todo truco era bienvenido en aquel entonces, sin importar el sistema usado. 

Fuente:
http://www.neoteo.com/como-funcionaba-el-sistema-de-trucos-game-genie/

 

¿Cuánto espacio libre debes dejar en tu PC con Windows?

Administrar el espacio disponible en un ordenador no es tan complicado en estos días. Un terabyte de capacidad cuesta menos de 50 euros, y las unidades de estado sólido son cada vez más grandes, sin embargo, hay usuarios allá afuera que siempre encuentran la manera de consumir hasta el último byte. Una pregunta clásica de mantenimiento es cuánto espacio debería quedar libre en promedio. Con el paso del tiempo se establecieron ciertas «reglas», pero el software ha cambiado, y las exigencias del usuario son diferentes.

¿Falta espacio en tu ordenador? Un disco duro Seagate de un terabyte no supera los 46 euros, mientras que por el lado de Western Digital queda a las puertas de los 50 euros. Si el presupuesto es demasiado ajustado y no es posible invertir en una unidad nueva, siempre se puede recorrer el camino del «refurbished» o los «pulls» de ordenadores nuevos. Aún así, hay veces en las que el espacio nos falla, y llega la hora de una gestión más profunda. La unidad de sistema empieza a guardar vídeos, juegos, música e imágenes, pero ese contenido compite con el propio Windows y sus actualizaciones masivas. Entonces, ¿cuál es el límite? ¿Cuánto espacio libre debe quedar para que las cosas funcionen de forma más o menos decente?
La unidad C (SSD) es un ejemplo extremo aquí, con 94 GB libres de 111. El disco duro D, aislado del sistema, sólo tiene un 32 por ciento de espacio disponible, sin pérdida de rendimiento.
La famosa «regla del 15 por ciento» surge de la documentación del desfragmentador
Siendo honesto, creo que nadie lo sabe con certeza. Microsoft se ha limitado a sugerir parámetros de «espacio mínimo» en ciertas tareas (como las instalaciones), pero solo eso. Tal vez su dato más firme sea al momento de desfragmentar. La documentación oficial indica que el desfragmentador necesita un 15 por ciento del espacio libre para el proceso completo, o de lo contrario realizará una desfragmentación parcial. En el caso de los SSD esto es irrelevante porque no requieren una desfragmentación clásica, y hay viejas guías que apuntan a un 25 por ciento de espacio libre, aunque en los últimos cinco años las unidades de estado sólido han mejorado en gran medida, y su degradación tarda más en manifestarse. Al mismo tiempo, estamos obligados a destacar que ya no conviene hablar de porcentaje, sino de espacio neto. Después de todo, el 15 por ciento de 3 TB son 450 gigabytes, y no tiene sentido desperdiciarlos.
Aunque siempre voy a apreciar una buena administración, los 3 TB ya están por debajo de los 100 euros…
Regresando a los discos duros, mi recomendación personal sobre cuánto espacio libre debería quedar es «todo el que puedas permitir, con moderación», en especial si hablamos de la unidad que posee la instalación de Windows. No olvidemos que las velocidades de un disco duro no son constantes, y si a esto le sumamos una partición repleta de datos combinada con los efectos de la fragmentación, su rendimiento inevitablemente decae. Esa merma es más tolerable en discos secundarios que sirven como «contenedores», pero la unidad con el sistema operativo, el archivo de intercambio y el archivo de hibernación necesita responder lo más rápido que pueda. Por ese y otros motivos se ha vuelto tan popular la configuración híbrida de SSD+HDD. Deja un pequeño estado sólido para Windows, y que todo lo demás se quede con el disco duro.


Fuente:
http://www.neoteo.com/que-tanto-espacio-libre-debes-dejar-en-tu-pc-con-windows/

La corteza de Marte es menos densa de lo que creían los astrónomos

Gracias a un nuevo método de estudio la NASA ha podido confirmar que la corteza de Marte es menos densa de lo que se creía inicialmente, un descubrimiento interesante que nos da nuevas pistas sobre el planeta rojo.
Ese método de estudio que ha permitido conocer con mayor detalle las características de la corteza de Marte se ha llevado a cabo teniendo en cuenta la topografía (cambios de elevación) en la superficie del planeta, una información que se combinó con los datos del campo de gravedad del mismo.
Los cálculos realizados sobre la base de esos datos permitieron como dijimos concluir que la corteza de Marte es menos densa que la de la Tierra. Esto choca frontalmente con las concepciones anteriores, que estimaban que su corteza debía ser casi tan densa como la de la Tierra.
Según el estudio la densidad de la corteza varía entre las diferentes regiones de Marte y los expertos creen que esa menor densidad se debe a la elevada porosidad de su superficie.
Sander Goossens, jefe del proyecto, nos confirma por qué es importante este descubrimiento:
“La corteza es el resultado final de todo lo que sucedió durante la historia de un planeta, por lo que una menor densidad podría tener importantes implicaciones sobre la formación y la evolución de Marte”.
Dicho de otra forma, gracias a este descubrimiento tenemos una base importante que podría dar pie a la formación de nuevas teorías sobre el pasado y el futuro de Marte, e incluso podría acabar modificando total o parcialmente teorías ya existentes sobre dicho planeta.

Fuente:
http://www.muycomputer.com/2017/09/14/la-corteza-marte-menos-densa/

Viaje final de Cassini, en directo y con nuestro homenaje

La nave/sonda Cassini caerá hoy en la atmósfera de Saturno marcando su final y el de una misión de varias agencias espaciales que comenzó hace casi 20 años (junto a la sonda Huygens) y que nos ha entregado información del planeta y sus satélites como ninguna otra antes. NASA TV retransmitirá el descenso (sobre las 7:55 horas a.m. ET) mortal pero controlado para evitar que pueda contaminar a Titán o Encelado y nos ha parecido adecuado ofrecerte una galería con imágenes seleccionadas como pequeño homenaje a esta gran nave espacial que seguirá trabajando enviando información hasta el último momento de su destrucción en la atmósfera del planeta de los anillos.
* * * * *
Lanzamiento Cassini-Huygens. La nave Cassini y la sonda Huygens en pleno lanzamiento el 15 de octubre de 1997 desde la estación de Cabo Cañaveral con un cohete Titan IVB/Centaur de dos etapas. Entró en órbita alrededor de Saturno el 1 de julio de 2004 y el 25 de diciembre de 2004 la sonda se separó de la nave. Un mes después, Huygens descendió a la atmósfera de Titán y con ello, logró el récord de distancia desde la Tierra de una nave aterrizada.

Fuente:
http://www.muycomputer.com/2017/09/15/cassini-viaje-final/

Corsair presenta la memoria RAM más rápida del mercado ¡DDR4 a 4600 MHz!

Corsair ha presentado un nuevo kit de memorias DDR4 que pasan por ser la RAM más rápida del mercado, alcanzando “de serie” nada menos que 4600 MHz.
El nuevo kit de memorias Corsair se incluye en la serie de alto rendimiento Vengeance LPX y ofrecen una capacidad de 16 GB en dos módulos de 8 GB. Trabaja a 1,5 voltios y su latencia es CL19-26-26-46. Están destinadas preferentemente a trabajar con los procesadores Intel Core X y ha sido desarrollada especialmente para la placa ASRock X299 OC Formula.
Por supuesto tienen soporte completo para Intel XMP 2.0, la tecnología Extreme Memory Profile que permite hacer overclocking en memorias DDR3/DDR4 con los procesadores Intel desbloqueados, aunque la verdad, no sabemos si se podrá sacar algo más de esos increíbles 4600 MHz.
Como todos los módulos de esta serie de gama alta, incluyen un difusor de calor LPX para mejorar la transferencia térmica y garantizar estabilidad bajo cualquier carga. Carga en estaciones de trabajo y PC entusiastas donde están destinados porque su precio se sale totalmente del mercado del gran consumo: 549 dólares para una disponibilidad a partir del 21 de septiembre.
memorias Corsair
Corsair comercializará un segundo kit con disponibilidad inmediata y una frecuencia de 4500 MHz. Su precio oficial es de 479 euros. Impresionantes las nuevas memorias Corsair en rendimiento y precio.

Fuente:
http://www.muycomputer.com/2017/09/15/corsair-memorias/

Esta semana termina la simulación de aislamiento centrada en Marte

Todavía faltan muchos años para que veamos una colonia humana en Marte, pero la NASA ya ha iniciado numerosos proyectos que le permitirán recoger la información que necesita para poder llevar a cabo la primera misión tripulada a dicho planeta.
Uno de los más interesantes ha sido la simulación de aislamiento de seis personas, dos mujeres y cuatro hombres, en una zona volcánica de Hawái que ofrece un paisaje muy similar al que encontraríamos en Marte, y en el que además se han recreado la mayoría de las condiciones que deberían enfrentar dichos sujetos en una misión real.
Además del aislamiento y del paisaje se ha utilizado un sistema de comunicaciones que aplica el retraso de 20 minutos que existiría entre el envío y la recepción de la señal en una misión real en Marte, y los participantes sólo han podido consumir alimentos secos, que serán la base de cualquier misión tripulada al menos durante su etapa inicial.
Decimos esto porque el asentamiento de una auténtica colonia en Marte requeriría de una capacidad de subsistencia que no sería posible mantener con grandes reservas de comida deshidratada. Sería necesario instalar cultivos y producir alimentos de forma sostenible, ya que de lo contrario su sostenibilidad no sería viable.
Este experimento permite como dijimos recopilar una serie de datos que pueden ser de gran utilidad en una futura misión a Marte. Al mismo tiempo también muestra las reacciones y el impacto psicológico que puede tener en las personas y facilita la valoración y determinación de qué participantes serían los mejor cualificados para ir al planeta rojo.

Fuente:
http://www.muycomputer.com/2017/09/16/simulacion-aislamiento-marte/