viernes, 31 de marzo de 2017

Juno nos muestra los polos de Júpiter en toda su gloria

En agosto de 2011 la NASA mandó una enorme sonda conocida como Juno a explorar planeta más grande del sistema solar. Fue un proyecto ambicioso, complicado y caro (1.000 millones de dólares), pero después de tantos años y de un viaje de más de 667.000 millones de kilómetros se empiezan a obtener maravillas como éstas imágenes de los polos de Júpiter.
Las imágenes muestran los polos de Júpiter pero además lo hacen con una gran riqueza en detalles, ya que podemos apreciar desde las formaciones nubosas hasta las misteriosas auroras que se producen en los mismos.
Polos de Júpiter (1)
Captar estas imágenes no ha sido nada fácil para Juno, sobre todo por el hecho de que Júpiter emite radiaciones que pueden ser muy dañinas para toda la electrónica que sustenta a la sonda. Para evitar quedar demasiado expuesta a esa radiación la sonda tiene que moverse realizando complicadas maniobras zigzagueantes que hacen que capturar imágenes de calidad se convierta en un gran desafío.
Polos de Júpiter
Las imágenes que se recibieron en la NASA estaban en blanco y negro, pero la agencia aeroespacial ha llevado a cabo un soberbio trabajo de edición para añadir un toque de color y hacerlas no sólo más atractivas, sino también más interesantes y fáciles de interpretar, incluso por el ojo menos experto.
Júpiter es un gigante de gas y como tal no es habitable, de hecho ni siquiera podríamos llegar a poner un pié en él ya que no tiene una superficie sólida ni nada mínimamente parecido, pero es uno de los planetas más interesantes y complejos de nuestro sistema solar, y también uno de los que más respuestas puede darnos sobre la formación del mismo.
Polos de Júpiter (3)
Ya os contamos en nuestro especial dedicado a este planeta que tiene más de proyecto fallido de estrella que de planeta, una realidad que nos permite entender mejor el peso que tiene dentro del sistema solar.

Fuente:
http://www.muycomputer.com/2017/03/30/juno-polos-jupiter/

Arduino C++ y Puerto serie




Tutorial Arduino C++ y Puerto serie. Puedes hacer controlar Arduino y el puerto serie desde el lenguaje C++ Win32. Hay tres IDE para elegir para crear tu propio programa en C++ como Visual Studio 2017, Code::Blocks y C++ Builder Starter.

A pesar de tener en Arduino IDE el Monitor serial para controlar el puerto y la placa Arduino, con C++ podemos potenciarlo, crear menús y muchas otras cosas más que se nos ocurra.



Antes que nada saber que puerto usamos:
// Para crear conexión con los puertos COM1 - COM9.
// Serial* Arduino = new Serial("COM7");

// Para crear conexión con los puertos COM10 en adelante.
// Serial* Arduino = new Serial("\\\\.\\COM10");

Abrir conexión del puerto:
Puerto->IsConnected()

Enviar información a Arduino:
// Encener luz.
cout << "Enviando: " << Luz_ON << endl; // Muestra en pantalla textos.
Puerto->WriteData(Luz_ON, sizeof(Luz_ON) - 1); // Envía al puerto el texto "Luz_ON".

Código de Arduino:

// Encendido y apagado del Led 13 mediante puerto serie.

const byte Led = 13;   // Declaramos la variable pin del Led.
char caracter;
String comando;

void setup()
{
  pinMode(Led, OUTPUT);  // Inicializa el pin del LED como salida:
  Serial.begin(115200);     // Puerto serie 115200 baudios.
}

void loop()
{
  /*
    Voy leyendo carácter a carácter lo que se recibe por el canal serie
    (mientras llegue algún dato allí), y los voy concatenando uno tras otro
    en una cadena. En la práctica, si usamos el "Serial monitor" el bucle while
    acabará cuando pulsamos Enter. El delay es conveniente para no saturar el
    canal serie y que la concatenación se haga de forma ordenada.
  */
  while (Serial.available() > 0)
  {
    caracter = Serial.read();
    comando.concat(caracter);
    delay(10);
  }

  /*
    Una vez ya tengo la cadena "acabada", compruebo su valor y hago que
    la placa Arduino reacciones según sea este. Aquí podríamos hacer lo
    que quisiéramos: si el comando es "tal", enciende un Led, si es cual,
    mueve un motor... y así.
  */

  // Si le llega el mensaje Luz_ON.
  if (comando.equals("Luz_ON") == true)
  {
    digitalWrite(Led, HIGH); // Enciende el Led 13.
    Serial.write("ON - Led encendido.");    // Envía este mensaje a C++.
  }

  // Si le llega el mensaje Luz_ON.
  if (comando.equals("Luz_OFF") == true)
  {
    digitalWrite(Led, LOW); // Apaga el Led 13.
    Serial.write("OFF - Led apagado. ");  // Envía este mensaje a C++.
  }

  // Limpiamos la cadena para volver a recibir el siguiente comando.
  comando = "";
}

Código C++:

#include
#include
#include
#include "SerialClass.h"
using namespace std;

void main()
{
    // Título de la ventana
    SetConsoleTitle("Control Led Arduino - Visual Studio C++ 2017");

    // Puerto serie.
    Serial* Puerto = new Serial("COM4");

    // Comandos para Arduino.
    char Luz_ON[] = "Luz_ON"; // Envía "Luz_ON" al puerto serie.
    char Luz_OFF[] = "Luz_OFF";
    char lectura[50] = "\0"; // Guardan datos de entrada del puerto.

    int opc; // Guarda un 1 o 2 tipo entero queintroduces desde la consola.

    while (Puerto->IsConnected())
    {
        cout << endl; // Retorno.
        cout << "Introduzca la opcion deseada: " << endl;
        cout << "Pulse 1 para encender el Led, pulse 2 para apagar." << endl << endl; // Muestra texto en pantalla.

        cin >> opc; // Aquí introduces un número, el 1 o el 2.

        switch (opc) // Espera recibir un 1 o un 2.
        {
        case 1:
            // Encener luz.
            cout << "Enviando: " << Luz_ON << endl; // Muestra en pantalla textos.
            Puerto->WriteData(Luz_ON, sizeof(Luz_ON) - 1); // Envía al puerto el texto "Luz_ON".
            break;

        case 2:
            // Apagar luz.
            cout << "Enviando: " << Luz_OFF << endl;
            Puerto->WriteData(Luz_OFF, sizeof(Luz_OFF) - 1);
            break;

        default: // Si haz pulsado otro número distinto del 1 y 2, muestra
            cout << "Puse del 1 al 2."; // este mensaje.
        }


        Sleep(500);
        int n = Puerto->ReadData(lectura, 49); // Recibe datos del puerto serie.
        if (n > 0)
        {
            lectura[n + 1] = '\0'; // Limpia de basura la variable.
            cout << "Recibido: " << lectura << endl; // Muestra en pantalla dato recibido.
            cout << "-------------------" << endl;
        }

        cin.ignore(256, '\n'); // Limpiar buffer del teclado.
    }
}
 



Ver visor:


Arduino c++ y puerto serie de Ángel Acaymo M. G.

Ver vídeo:


Autor: Ángel Acaymo M. G.

Descarga:
PDF
PDF
PDF

XPS
XPS

Ejemplos 3.22 MB.
Ejemplos 3.22 MB.

Librería oficial.
Librería desde Electrónica PIC 5.67 KB.
Librería desde Electrónica PIC. 5.67 KB.





jueves, 30 de marzo de 2017

Hola mundo para Visual Studio 2017

Nunca es tarde si la dicha es buena.

Microsoft ya tiene libre desde hace semanas su producto de desarrollo de software como Visual Studio 2017 Community para hacer tus aplicaciones.

Descarga

En este Blog se utiliza mucho este IDE para hacer pequeños programas de control sobre el puerto serie y placas de Arduino e incluso los microcontroladores PIC.

Tutorial básico Hola Mundo en Visual C#.

Introducimos al formulario un Button y un label.


Haz docble clic en el botón Hola, luego introduces este código.

label1.Text = "Hola mundo";


Pulsas F5 para compilar y muestra el formulario, luego pulsas el botón Hola.


Código fuente C#:

using System;
using System.Collections.Generic;
using System.ComponentModel;
using System.Data;
using System.Drawing;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using System.Windows.Forms;

namespace HolaMundo
{
    public partial class Form1 : Form
    {
        public Form1()
        {
            InitializeComponent();
        }

        private void button1_Click(object sender, EventArgs e)
        {
            label1.Text = "Hola mundo";
        }
    }
}

Nota de la versión Visual Studio 2017:

https://www.visualstudio.com/es-es/news/releasenotes/vs2017-relnotes

A disfrutarlo. ;)

Intel comercializa sus primeras memorias Optane para consumo

Intel está comercializando sus primeras memorias Optane para el mercado de consumo. Una solución de caché con potencial para mejorar el rendimiento de cualquier dispositivo, aplicación o servicio que se beneficie de un rápido acceso a grandes conjuntos de datos.
Como sabes, Intel Optane es un conjunto de soluciones de estado sólido con memorias 3D X Point, la primera categoría de memoria no-volátil desde el lanzamiento de flash NAND en 1989. 3D XPoint ha sido desarrollada desde cero por Intel y Micron, combinando las ventajas de rendimiento, densidad, energía, no volatilidad y coste de todas las tecnologías de memoria disponibles en el mercado.
Así, después del lanzamiento de la Intel® Optane™ SSD P4800X para centros de datos, el gigante del chip estrena sus memorias Optane en el mercado de consumo. Intel las llama “memorias” aunque en realidad son módulos que se sitúan a medio camino entre la unidad de almacenamiento y la memoria DRAM del sistema, actuando como una unidad rápida de caché.
Las memorias Optane utilizan un factor de forma M.2 y una interfaz PCIe NVMe 3.0 x2 para ofrecer un gran rendimiento, con velocidades de transferencia de datos de hasta 1350 / 290 Mbytes por segundo en lectura/escritura secuencial. En la práctica, las memorias Optane pretenden acelerar el rendimiento del equipo de manera asequible. Según Intel, si instalamos este tipo de memorias en nuestro PC obtendremos:
  • Reducir a la mitad el tiempo de arranque del PC
  • Aumentar el rendimiento del almacenamiento hasta 14 veces
  • Aumentar el rendimiento general un 28%
  • Inicio de aplicaciones más rápido (por ejemplo, Outlook puede cargar hasta 6 veces más rápido)
  • La búsqueda de archivos es cuatro veces más rápida
Intel® Optane™

Memorias Optane – disponibilidad y precio

Este tipo de memorias tienen un nicho limitado ya que solo funcionan con procesadores Intel “Kaby Lake”, sistema operativo Windows 10 de 64 bits. el mencionado slot M.2 2280 y una BIOS que soporte la tecnología Intel Rapid Storage 15.5. Recalcar que funcionan como caché, no pueden utilizarse para instalar en ellas el sistema operativo.
Estarán disponibles a partir del 24 de abril en módulos de 16 GB por 44 dólares y 32 GB con un coste de 77 dólares. El precio es económico y puede ser adecuado para acelerar el rendimiento de un PC de sobremesa con disco duro, aprovechando las ventajas de capacidad de éste y el rendimiento de una unidad de estado sólido. Suponemos que Intel utilizará esta tecnología para comercializar otras soluciones de estado sólido. Sí está confirmado que se comercializarán soluciones similares para portátiles.

Fuente:
http://www.muycomputer.com/2017/03/29/memorias-optane/

Intel confirma que no todos los chips de 10 nm son iguales


Los procesos de fabricación y la reducción de los mismos juegan un papel muy importante en el sector tecnológico. Ya os hablamos de ello en este artículo y hoy Intel ha destacado algo muy importante en este sentido, que no todos los chips de 10 nm son iguales.
La idea clave es sencilla de entender. Cuando avanzamos en el proceso de fabricación y lo reducimos no es lo mismo hacerlo doblando el número de transistores que elevar ligeramente el conteo de los mismos frente al proceso anterior.
En la gráfica que acompañamos podemos ver perfectamente reflejada esta idea. Si reduces el proceso de fabricación pero sólo aumentas ligeramente el conteo de transistores o incluso lo disminuyes el avance que estás consiguiendo pierde mucho potencial.
Por otro lado debemos tener en cuenta que reducir el proceso de fabricación doblando la densidad de transistores es mucho más complicado, y que por tanto requiere un mayor esfuerzo y una inversión muy grande.
chips de 10 nm (2)
Con eso en mente podemos entender mejor porqué Intel ha seguido aprovechando el proceso de fabricación de 14 nm. Es evidente que el gigante del chip podría haber llevado a cabo una transición a los 10 nm hace tiempo, pero la misma no habría sido auténtica, al menos desde el punto de vista que hemos expresado en este artículo.
Esto quiere decir que chips como el Exynos 8895 y el Snapdragon 835 no han cumplido esa regla de doblar la densidad de transistores al saltar a los 10 nm. La consecuencia directa de esto es que aunque se beneficiarán de las ventajas que ofrece una reducción de proceso no llegarán al mismo nivel que lo habría hecho un chip que hubiera doblado el conteo de transistores.
La mejora que conseguirán esos chips en relación aumento de rendimiento-reducción de consumo será menor, y por tanto no serán comparables a soluciones que de verdad hayan dado el salto siguiendo esa premisa, fijada como sabemos en la Ley de Moore.
Por su parte Intel ha confirmado que sus chips de 10 nm multiplicarán por 2,7 el conteo total de transistores frente al proceso de 14 nm, lo que se traducirá en un aumento del rendimiento de hasta un 25% y una reducción de consumo de hasta un 45%.

Fuente:
http://www.muycomputer.com/2017/03/29/intel-10-nm/

domingo, 26 de marzo de 2017

Consiguen crear hidrógeno metálico

Casi un siglo después de que fuera postulado teóricamente, unos científicos han conseguido crear uno de los materiales más raros y quizá más valiosos del planeta.

El material, hidrógeno atómico metálico, ha sido creado por el equipo de Isaac Silvera y Ranga Dias, de la Universidad Harvard en Cambridge, Massachusetts, Estados Unidos.

Además de ayudar a los científicos a responder preguntas fundamentales sobre la naturaleza de la materia, se cree que el material tendrá una amplia gama de aplicaciones, incluyendo la de superconductor a temperatura ambiente.

“Se trata del santo grial de la física de alta presión”, valora Silvera. “Es la primera muestra de la historia de hidrógeno metálico en la Tierra, así que cuando la miras, estás viendo algo que nunca ha existido antes”.

Para crearla, Silvera y Dias comprimieron una diminuta muestra de hidrógeno bajo una presión de 495 gigapascales, mayor que la del centro de la Tierra. A esas presiones extremas, el hidrógeno molecular sólido se descompone, y las moléculas firmemente ligadas entre sí se disocian para transformarse en hidrógeno atómico, que bajo tales condiciones se comporta como un metal.

Si bien el trabajo abre una puerta hacia un mejor conocimiento de las propiedades generales del hidrógeno, también ofrece pistas atractivas sobre nuevos materiales potencialmente revolucionarios.

[Img #41607]

Imágenes microscópicas de las etapas en la creación de hidrógeno metálico: hidrógeno molecular transparente (izquierda) a unos 200 gigapascales, que es convertido en hidrógeno molecular negro, y finalmente en hidrógeno atómico metálico reflectante a 495 gigapascales. (Fotos: cortesía de Isaac Silvera)

Una predicción muy importante es que el hidrógeno metálico debería ser metaestable. Eso significa que si se le devuelve a la presión ambiental normal de la superficie terrestre, seguirá siendo metálico, de manera similar a la forma en que los diamantes se forman a partir del grafito bajo un calor y una presión intensos, pero siguen siendo diamantes cuando la presión y la temperatura descienden hasta los valores normales en la superficie terrestre.

Averiguar si el material es realmente estable es importante porque se cree que el hidrógeno metálico podría actuar como superconductor a temperatura ambiente. Eso sería revolucionario. Se pierde mucha energía eléctrica debido a la disipación durante la transmisión, así que si pudiéramos fabricar cables de este material, sin la problemática asociada a los superconductores que requieren bajas temperaturas, y utilizarlo en la red eléctrica, ello marcaría un antes y un después en la historia del uso humano de la electricidad.

Un superconductor a temperatura ambiente también podría cambiar radicalmente nuestro sistema de transporte, haciendo mucho más fácil y práctica la levitación magnética de trenes de alta velocidad, así como haciendo más eficientes los coches eléctricos y mejorando el rendimiento de muchos dispositivos electrónicos.

Fuiente:
http://noticiasdelaciencia.com/not/22903/consiguen-crear-hidrogeno-metalico/

Zoología Lunes, 6 marzo 2017 Bioingeniería Logran grabar en ADN y sin errores una película y un sistema operativo de ordenador

La humanidad podría pronto generar más datos de lo que los discos duros u otros sistemas de almacenamiento masivo puedan acoger de manera eficaz, un problema que ha hecho que los científicos presten atención al ADN, la antiquísima solución de la naturaleza para almacenar información.

En un nuevo estudio, Yaniv Erlich y Dina Zielinski, de la Universidad de Columbia en la ciudad estadounidense de Nueva York, han demostrado que un algoritmo diseñado originalmente para streaming de video en un teléfono móvil o celular puede aprovechar casi por completo el potencial de almacenamiento del ADN gracias a poder comprimir mucho más la información en él que en cualquier otro sistema artificial existente de almacenamiento de información. También han demostrado que esta tecnología es muy fiable.

El ADN constituye un medio de almacenamiento ideal porque es ultracompacto y puede durar cientos de miles de años si se le mantiene en un lugar fresco y seco, como se demostró entre 2013 y 2016 con la obtención de ADN de huesos de un antepasado humano de hace 430.000 años, encontrados en una cueva española.

“El ADN no se degradará con el tiempo como sí les ocurrirá a las cintas de casete y a los CDs. No se volverá obsoleto, y si fuera así, los humanos tendríamos problemas mayores”, dice agudamente Erlich.

Erlich y Zielinski eligieron seis archivos para codificar, o escribir, en el ADN: un sistema operativo completo de ordenador, una película francesa de 1895 (“Llegada de un tren a La Ciotat”), una tarjeta de regalo de 50 dólares de Amazon, un virus de ordenador, el contenido de una placa diseñada como mensaje para extraterrestres y que viaja a bordo de las sondas espaciales Pioneer, y un estudio de 1948 del teórico de la información Claude Shannon.

[Img #42213]

Yaniv Erlich y Dina Zielinski. (Foto: New York Genome Center)

Erlich y Zielinski comprimieron los archivos en uno solo, y después dividieron los datos en secuencias cortas de código binario hecho de ceros y unos. Usando un algoritmo de corrección y borrado, empaquetaron aleatoriamente las secuencias en conjuntos denominados gotas, cartografiando los unos y los ceros de cada gota para las cuatro bases de nucleótidos en el ADN: A, G, C y T. El algoritmo excluyó combinaciones de letras conocidas por crear errores, y añadió un código de barras a cada gota para ayudar a reensamblar los archivos más tarde.

En total, generaron una lista digital de 72.000 cadenas de ADN, cada una de 200 bases de largo, y la enviaron en un archivo de texto a la compañía Twist Bioscience, de San Francisco, especializada en síntesis de ADN y en convertir datos digitales en datos biológicos. Dos semanas más tarde, recibieron un frasco conteniendo una pizca de moléculas de ADN.

Para recuperar del ADN sus archivos, utilizaron tecnología moderna de secuenciación que lee las cadenas de ADN, lo que fue seguido por el uso de un software que traduce el código genético de nuevo a código binario. Así, recuperaron sus archivos sin ningún error en absoluto.

También han demostrado que se podría crear una cantidad virtualmente ilimitada de copias con su técnica de codificación, mediante la multiplicación de su muestra de ADN a través de la reacción en cadena de la polimerasa (PCR), y que esas copias, e incluso las copias de sus copias, y así sucesivamente, pueden seguir almacenando, sin errores, la información original.

Finalmente, los investigadores han demostrado que su estrategia de codificación empaqueta 215 petabytes de datos en un único gramo de ADN, 100 veces más que lo conseguido con los métodos publicados por los investigadores precursores del almacenamiento de datos en ADN, George Church de la Universidad Harvard, y Nick Goldman y Ewan Birney del Instituto de Bioinformática Europeo. “Creemos que es el sistema de almacenamiento de datos de densidad más alta creado hasta ahora”, subraya Erlich.

Fuente:
http://noticiasdelaciencia.com/not/23304/logran-grabar-en-adn-y-sin-errores-una-pelicula-y-un-sistema-operativo-de-ordenador/

Tejido cardiaco humano creciendo en hojas de espinaca

Unos investigadores han recurrido al sistema vascular de las plantas para resolver un importante problema de bioingeniería que está bloqueando la regeneración de tejidos y órganos humanos.

Los científicos del sector se enfrentan a un desafío fundamental mientras buscan ampliar la escala de la regeneración de tejidos desde pequeñas muestras de laboratorio a tejidos más extensos, incluyendo piezas óseas e incluso órganos completos, para implantarlos en personas y tratar enfermedades o lesiones graves: cómo establecer un sistema vascular que suministre sangre al interior del tejido en desarrollo.

Las actuales técnicas de bioingeniería, incluyendo la impresión 3D, no pueden fabricar la red ramificada de vasos sanguíneos hasta el nivel capilar que se requiere para proporcionar el oxígeno, los nutrientes y las sustancias esenciales que se precisan para un adecuado crecimiento de los tejidos. A fin de solventar este problema, un equipo de investigación multidisciplinar del Instituto Politécnico de Worcester, la Universidad de Wisconsin-Madison y la Universidad Estatal de Arkansas en Jonesboro, todas estas instituciones en Estados Unidos, ha decidido recurrir a las plantas. Estos investigadores han explorado la posibilidad de usar plantas descelularizadas como andamios, con capacidad de perfusión, para ingeniería de tejidos.

Las plantas y los animales explotan métodos fundamentalmente diferentes para transportar fluidos, sustancias y macromoléculas, pero existen similitudes sorprendentes en sus estructuras de red vascular. El desarrollo de plantas descelularizadas para servir como andamio abre otro capítulo en una nueva rama de la ciencia que investiga el mimetismo entre lo vegetal y lo animal.

[Img #42628]

En esta secuencia, una hoja de espinaca es desprovista de sus células vegetales, un proceso llamado descelularización. El proceso solo deja la vasculatura de la hoja. (Fotos: Worcester Polytechnic Institute)

En una serie de experimentos, el equipo de Glenn Gaudette cultivó células cardiacas humanas que podían latir sobre hojas de espinaca a las cuales se despojó de células vegetales. Hicieron fluir fluidos y microesferas parecidas en tamaño a los glóbulos sanguíneos humanos a través de la vasculatura de la espinaca, y sembraron con éxito las venas de esta última con las células humanas que recubren los vasos sanguíneos. Los investigadores pudieron así cultivar células cardíacas que latían sobre tales hojas descelularizadas.

Esto abre la puerta hacia el uso de múltiples hojas de espinaca para hacer crecer capas de músculo cardiaco sano que permitan dar tratamientos médicos avanzados a pacientes que han sufrido ataques al corazón.

 Fuente:
 http://noticiasdelaciencia.com/not/23595/tejido-cardiaco-humano-creciendo-en-hojas-de-espinaca/

sábado, 25 de marzo de 2017

Hola mundo del nuevo Delphi 10.2 Tokio

Hola:

Aquí se presenta la nueva versión de Delphi 10.2 Tokio.

Novedades:
http://docwiki.embarcadero.com/RADStudio/Tokyo/en/What's_New

Han corregidos 500 reportes por los clientes.
http://edn.embarcadero.com/article/44747

Puedes descargar la versión grauita Delphi Edition Starter.

Descargar

Aquí hice una prueba muy básica sobre Delphi 10.2 Tokio con dos botones, uno para saludar y el otro para despedirse en una etiqueta.



Introduces un label y dos button.

Haz doble clic en el botón del formulario y pon este código:

Label1.Caption := 'Hola mundo.';

Este otro para la despedida:

Label1.Caption := 'Adiós mundo.';

Código fuente completo:

unit Saludar;

interface

uses
  Winapi.Windows, Winapi.Messages, System.SysUtils, System.Variants, System.Classes, Vcl.Graphics,
  Vcl.Controls, Vcl.Forms, Vcl.Dialogs, Vcl.StdCtrls;

type
  TForm1 = class(TForm)
    Label1: TLabel;
    Button_Saludar: TButton;
    Button_Despedir: TButton;
    procedure Button_SaludarClick(Sender: TObject);
    procedure Button_DespedirClick(Sender: TObject);
  private
    { Private declarations }
  public
    { Public declarations }
  end;

var
  Form1: TForm1;

implementation

{$R *.dfm}

procedure TForm1.Button_DespedirClick(Sender: TObject);
begin
  Label1.Caption := 'Adiós mundo.';
end;

procedure TForm1.Button_SaludarClick(Sender: TObject);
begin
     Label1.Caption := 'Hola mundo.';
end;

end.

Se hará tutoriales sobre encender y apagar un Led con Arduino y Delphi mediante puerto serie. ;)

Saludos.

Curiosity captó en Marte nubes sometidas al efecto onda de gravedad


El rover Curiosity sigue de misión en la superficie de Marte, donde el verano pasado logró captar imágenes de las nubes del planeta rojo sometidas al efecto que se conoce como onda de gravedad, algo que como vimos en esta noticia puede ser realmente impresionante.
Como sabrán nuestros lectores más avanzados el fenómeno de onda de gravedad es algo que se produce en muchos planetas, la Tierra incluida, y se describen en este caso como las ondas generadas por los cuerpos nubosos como respuesta a la perturbación que produce la fuerza de gravedad en ellos, intentando alterar su equilibrio inicial.
La atmósfera de Marte presenta una densidad muy baja. A pesar de ello gracias a la exploración llevada a cabo por Curiosity sabíamos que las nubes pueden producirse en formaciones bastante intensas a primera hora de la mañana, pero lo que no nos esperábamos era que se pudiera repetir el fenómeno de la onda de gravedad en la zona ecuatorial del planeta rojo.

Es una pequeña gran sorpresa que demuestra una vez más que Marte es un exotismo que nos recuerda constantemente a nuestro hogar, la Tierra, y que da un poco más de fuerza a esas teorías que nos pintan lienzos de un pasado lejano, en el que esa polvorienta bola anaranjada vistió tonalidades azules y verdosas.
No se puede negar que Marte es muy diferente a la Tierra, pero al mismo tiempo dentro de esas grandes diferencias encontramos parecidos tan grandes y tan claros que se pueden resumir con una frase muy sencilla: Marte es tan diferente a la Tierra que no podríamos vivir directamente sobre él, pero es tan parecido que es el único que podríamos colonizar con “poco esfuerzo”.

Fuente:
http://www.muycomputer.com/2017/03/25/curiosity-marte-nubes-onda-gravedad/

¿Por qué los ordenadores viejos tenían cerraduras?

Los ordenadores antiguos estaban llenos de pequeños detalles muy peculiares, y que en algunos casos eran exclusivos del fabricante: El reloj LED que enseñaba la frecuencia, el botón «Turbo», las teclas especiales, y por supuesto, la cerradura. ¿Por qué era una buena idea poner cerraduras en los sistemas de antaño? Dependiendo de la aplicación, se buscaba impedir el ingreso de comandos, bloquear el acceso al interior de la PC, o evitar su encendido fuera de horario.

Si has llegado a utilizar un ordenador de la «era pre-Windows 95», es probable que recuerdes algunas características de su carcasa. Una de las más llamativas era el botón Turbo. Muchos programas dependían de la frecuencia del CPU para su timing, y a medida que el hardware ganó velocidad, pasaron a funcionar demasiado rápido. «Desactivar el Turbo» ayudaba a esos programas a recuperar el timing, y todos éramos felices. Pero después estaba esa extraña cerradura. «Keylock», indicaban ciertos modelos. El ordenador personal es una demostración contundente del avance tecnológico, y aún así, muchas unidades venían con uno de los elementos más tradicionales en materia de seguridad. ¿Por qué?

El canal de YouTube Lazy Game Reviews, dedicado a retroinformática y juegos clásicos (entre otras cosas), lo explica con precisión. La función más común de la cerradura era desactivar el teclado. Con un giro de la llave, la placa base recibía la orden de ignorar cualquier señal, y evitar así el ingreso de comandos no deseados. Otro de sus objetivos era impedir el acceso al interior del ordenador. Anular la cerradura se limitaba a desconectar un cable con la carcasa abierta, pero muchas cerraduras combinaron ambas funciones. Ciertas cerraduras tenían la capacidad de desactivar el acceso al disco duro, o con el uso de un accesorio externo, bloquear el encendido.
Un IBM 5170. La cerradura está entre el logo y los botones de la carcasa.
El primer fabricante en instalar una cerradura con llaves tubulares fue IBM, a través de su ordenador 5170 (el clásico «IBM AT»). En agosto de 1984, el IBM 5170 costaba seis mil dólares, y los mecanismos de seguridad vía software eran nulos. No había contraseñas, ni perfiles, ni administración remota. El IBM 5150 (IBM XT) no poseía ninguna protección, por lo que el Gigante Azul lanzó una «Keylock Option», cerradura para el interruptor de encendido, que también incluía un «dummy plug» compatible con la toma de energía. El mercado no tardó en copiar a IBM, y otras compañías adoptaron variantes más robustas, como el caso de SGI con su barra de metal. Al final, lo que «mató» a la cerradura fue la llegada de las contraseñas a nivel software (BIOS y sistema operativo), aunque los usuarios hicimos nuestra parte perdiendo llaves con extrema facilidad…

Fuente:
http://www.neoteo.com/por-que-los-ordenadores-viejos-tenian-cerraduras/

Usando smartphones como servidores Linux

La idea de un smartphone Android abandonado en un oscuro cajón es cada vez más frecuente. Si se trata de un modelo demasiado viejo o su reparación no vale la pena, lo más probable es que quede ahí, esperando a una segunda oportunidad que tal vez no llegue nunca. Sin embargo, muchos entusiastas del hardware están explorando usos alternativos para esos smartphones, y uno de ellos es el de servidor Debian.

Los mejores proyectos de hardware pueden comenzar con un accidente. Una pantalla rota, botones que dejan de funcionar, errores en el firmware, la lista sigue. Los fabricantes arrojan la toalla con una velocidad escalofriante al brindar soporte, pero si los espíritus del hacking nos ayudan, puede que haya un poco de información adicional en la Web. Tomemos el ejemplo de los smartphones Android. Se supone que el sistema operativo es abierto, pero los OEM se encargan de modificar las imágenes a un punto tal que se convierten en algo exclusivo para cada modelo. Como si eso fuera poco, los detalles sobre los componentes tienden a ser escasos. Aún con estas dificultades, hay entusiastas allá afuera muy interesados en reutilizar smartphones y tablets, lo que nos lleva al blog de Pete Scargill y sus esfuerzos para crear un servidor Debian.
Linux Deploy es muy interesante, pero su documentación necesita trabajo
Todo comenzó con un teléfono Oukitel K10000 que recibió de un amigo con la pantalla rota. El primer paso fue habilitar el acceso root en el dispositivo a través de kingroot.net, y luego descargó una aplicación de la Play Store llamada Linux Deploy, cuya documentación se encuentra en ruso. Scargill recomienda un smartphone con 16 GB de almacenamiento interno, aunque técnicamente es posible experimentar con unidades de 8 GB (quedarán menos de 2 GB disponibles). Dentro de la app hay un repositorio con una copia de Debian 8 para ARM, y después de algunos ajustes (sin mencionar una larga espera durante su instalación), debería quedar todo listo para acceder al smartphone vía WinSCP o similar.
Con Debian instalado, el smartphone es ahora un servidor. Necesitamos ver más casos como este.
Una de las cosas que instaló Scargill fue Node-Red, y para ello utilizó un script originalmente preparado con el Raspberry Pi en mente. De hecho, su proyecto mantiene cierta relación con el mini ordenador (el usuario en Debian es «pi»), pero al final del día es una bestia muy diferente. El K10000 tiene 2 GB de RAM, y una batería de 10.000 mAh que en esencia funciona como UPS. Otros dispositivos que formaron parte de la prueba son el Xiaomi Redmi 3, el OnePlus One, y la edición 2012 de la tablet Nexus 7.

Fuente:
http://www.neoteo.com/usando-smartphones-como-servidores-linux/

Raspberry Pi Zero W transformado en terminal portátil

El Raspberry Pi Zero W está simplificando mucho la vida de los usuarios gracias a su conectividad inalámbrica integrada. No solo reduce la necesidad de accesorios externos, sino que también permite implementar diseños más sencillos. Así llegamos al Zero Terminal, un proyecto que transforma al Pi Zero W en un ordenador portátil, con su propia batería interna, salida HDMI, y un teclado deslizante pensado para el iPhone 5.


Con el debut del Raspberry Pi Zero W en el mercado, los entusiastas del hardware dijeron adiós a los concentradores USB para conectar adaptadores WiFi y módulos Bluetooth externos. Ahora, todo eso se encuentra en el PCB, y la mejor parte es que su consumo de energía no se disparó (aproximadamente 170 mA en reproducción 1080p). Con ese dato a favor, era una simple cuestión de tiempo para que alguien tomara al nuevo mini ordenador y lo convirtiera en una solución portátil. Ese trabajo llega a nosotros una vez más gracias a los esfuerzos de NODE, que presentó a su «Zero Terminal», tercera versión de su concepto de ultraportátiles Linux.

Uno de los objetivos principales del Zero Terminal fue mejorar su estética en relación a los modelos previos, y entre las piezas más importantes descubrimos un teclado deslizante compatible con el iPhone 5. Ese smartphone cumplirá cinco años en septiembre, pero la disponibilidad de accesorios similares aún es amplia. Una carcasa especial impresa en 3D (dividida en marco y cubierta que se pegan sobre el teclado) tiene espacio suficiente para la pantalla de 3.5 pulgadas (480 por 320), una batería de 1.500 mAh (podría ser más grande con algunos ajustes), y un circuito de carga. NODE utiliza componentes de Adafruit, pero no es obligatorio de ningún modo.
El teclado deslizante es una solución elegante y más económica de lo que aparenta, aunque fue necesario reasignar una tecla para imitar a «CTRL». La salida HDMI y el puerto USB extendido ayudan mucho a la hora de conectar un monitor externo y un ratón o un teclado de tamaño completo. Los archivos 3D de la carcasa van a demorar un poco, pero están en camino.

Fuente:
http://www.neoteo.com/raspberry-pi-zero-w-transformado-en-terminal-portatil/

lunes, 20 de marzo de 2017

La Nintendo Switch ya ha sido hackeada

Un agujero en WebKit es el culpable

Pasaron apenas once días desde que la Nintendo Switch debutó en el mercado. En general podemos hablar de un lanzamiento exitoso, pero al igual que todo producto de primera generación, siempre va a aparecer un borde filoso o dos. En esta ocasión, se trata del software. Técnicamente, la Nintendo Switch no trae un navegador, pero posee un módulo que se comporta como tal para habilitar el ingreso a ciertas redes WiFi. ¿El problema? Ese módulo se basa en una versión muy antigua de WebKit, y todo lo que necesitaron los hackers fue reciclar un viejo exploit de iOS.

El hackeo de las consolas es inevitable. Tarde o temprano, entusiastas del hardware y el software comienzan a estudiar de una punta a otra sus diseños, y a hacer cosas que jamás se le hubieran pasado por la cabeza a los fabricantes. Por supuesto, cualquier idea sobre hacking, modding, emulación y ejecución de código alternativo es oficialmente rechazada, pero todos los reclamos se pierden en el camino. Al final del día, el dueño de la consola hace lo que desea con ella, y si eso implica ejecutar Linux, instalar un emulador o reemplazar su disco duro con un SSD cuando en teoría es imposible, así será. El reciente lanzamiento de la Switch ha convertido a la nueva plataforma de Nintendo en un blanco muy tentador, y con el inicio de la semana, ya surgió la primera vulnerabilidad.

Ahora, debemos hacer énfasis en el término «vulnerabilidad». No se trata de un firmware personalizado, ni nada que permita ejecutar dumps de los cartuchos (por ahora). En términos sencillos, el modo online de la Nintendo Switch es un trabajo en progreso, y se espera que las cosas mejoren con cada nueva actualización. Nintendo indicó en más de una oportunidad que la Switch no iba a contar con un navegador tradicional, sin embargo, lo cierto es que sí existe un navegador integrado, basado en WebKit. Este navegador se activa cuando el usuario conecta la consola a una red WiFi que requiere autenticación o confirmación manual (por ejemplo, a través de un portal cautivo). El problema es que ese navegador utiliza una versión de WebKit muy antigua, la cual carga con un bug de corrupción de memoria, CVE-2016-4657. El bug sirvió como punto de partida para el jailbreak de iOS 9.3, y se remonta a agosto del año pasado.
La gran pregunta aquí es en qué estaba pensando Nintendo cuando decidió implementar una versión de WebKit con más de seis meses y llena de agujeros. El siguiente paso será obviamente lanzar un update, pero hasta que eso suceda, los hackers buscarán vulnerabilidades adicionales que lleven a una elevación de privilegios.

Fuente:
http://www.neoteo.com/la-nintendo-switch-ya-ha-sido-hackeada/

 

Navegando en la Web de hoy… con una Dreamcast

Muchos jugadores aún estamos dolidos por lo que sucedió con la Dreamcast. Sus especificaciones eran más que decentes, y contaba con algunos recursos desconocidos en otras consolas, pero una vez que la PlayStation 2 llegó con su soporte DVD, el compromiso de los desarrolladores y su retrocompatibilidad PS1, fue «game over» para Sega. Aún así, todavía quedan varios locos de la guerra que disfrutan experimentando con la consola, y en esta ocasión, SegaDotNet decidió conectar una Dreamcast a la Web usando dial-up. Un valiente, sin lugar a dudas.

El único juego que terminé completo en la Sega Dreamcast fue Resident Evil 2, y eso me alcanzó para quedar completamente enamorado de la consola, pero llegué muy tarde a la fiesta, y a los pocos meses desapareció del mercado. Si quisiera comprar una hoy debería entregar un riñón como parte de pago, porque hay muchos «coleccionistas» online que deliran con sus precios. En estos últimos años, la Dreamcast recibió varias modificaciones, incluyendo una salida VGA, y soporte para discos duros o tarjetas de memoria, pero hay otros que la disfrutan en su configuración de fábrica. Uno de ellos es Sammy Kennedy, responsable por el canal SegaDotNet en YouTube. ¿Qué fue lo que hizo? La conectó a la Web. Usando dial-up.

El proceso requiere de un cable telefónico estándar para conectar el módem integrado a la línea, uno de los controles, el teclado y el ratón de Dreamcast, y un navegador compatible, en este caso Dreamkey 3.0 (esa fue la última versión de disponibilidad general en Europa, pero también hubo un build 3.1 para España y Portugal). El número de proveedores gratuitos vía dial-up ha disminuido mucho, pero es suficiente con un poco de Google-fu para detectar los servicios que siguen activos. Una vez ingresado el número de teléfono, el nombre de usuario y la contraseña, el resto depende de qué tan severo sea el ataque alérgico de la Web moderna frente a un navegador antiguo.
Obviamente, la experiencia es desastrosa. El motor de búsqueda de Google apenas carga en su versión básica, Facebook se pierde por el camino, y Wikipedia responde con un error. La única excepción fue el viejo portal Dreampipe, optimizado para Dreamkey y otros navegadores de Dreamcast. En resumen: La consola aún puede conectarse sin problemas, pero navegar es otra historia. Ahora, si alguien se tomara la molestia de crear un navegador más actualizado…

Fuente:
http://www.neoteo.com/navegando-en-la-web-de-hoy-con-una-dreamcast/
 

domingo, 19 de marzo de 2017

Viatcheslav Mukhanov: «El Universo surgió de la nada y puede volver a suceder»

Todos los experimentos han dado la razón a este científico ruso que hace 30 años calculó con lápiz y papel cómo fueron los orígenes del Cosmo.

El cosmólogo Viatcheslav Mukhanov (Kanash, antigua URSS, 1952) habla alto y claro, en todos los sentidos. Vehemente e impetuoso, escucharle es todo un espectáculo; por su discurso rápido, rotundo y fulminante, la energía que desprende su voz y un acento que suena en inglés, y en esto hay cierta ternura, a un malo de las películas de James Bond. Con la misma pasión habla del Big Bang, cita a San Agustín o muestra su rechazo a la política de Vladímir Putin. Este catedrático de la Universidad Ludwig-Maximilians de Múnich (Alemania) tuvo hace treinta años una idea brillante que también se le ocurrió a Stephen Hawking. Con toda seguridad el nombre del británico le sonará mucho más, pero ambos llegaron de forma independiente a la misma conclusión: las galaxias, las estrellas, los planetas... todo se formó a partir de un fenómeno microscópico llamado fluctuaciones cuánticas, generadas después del Big Bang. Y tenían razón, dice el científico ruso, «punto por punto». De eso ha hablado en la inauguración de una nueva edición del ciclo de conferencias científicas de la Fundación BBVA en Madrid. La suya se titulaba «De la nada al Universo».
-Entonces, ¿toda la materia surgió de la nada?
-El hecho de que el Universo se origine de la nada no contradice ninguna ley física. En eso incluso estaban de acuerdo los teólogos antes del Medioevo, pero entonces eran palabras y ahora son hechos confirmados experimentalmente. El Universo surgió de la nada y si me pregunta qué había antes...
-¿Qué había?
-La pregunta no tiene sentido, porque el tiempo también fue creado cuando surgió el Universo. San Agustín decía esto mismo.
-Cita a San Agustín... ¿Dios tiene un espacio en esa ecuación?
-Yo diría que las leyes de la física lo explican todo. Ahora, quién es el creador de esas leyes, eso es otra cosa. Es una pregunta abierta.
-Si esto ha sucedido una vez, ¿pudo suceder más veces? ¿Puede volver a suceder?
-Sí, podemos tener múltiples universos. De hecho, no parece una idea nada loca, pero esa tesis está fuera de la física, porque no es una conclusión sin ambigüedad y no sabemos cómo verificarlo. La física se encarga solo de las cosas que se pueden verificar, y la cosmología, gracias a la experimentación de los últimos años, es parte de ella, una ciencia natural.
-Los experimentos sí han confirmado los cálculos que usted hizo una vez con lápiz y papel.
-Durante los últimos 25 años ha habido 70 experimentos que nos han dado la imagen del Universo cuando tenía solo 300.000 años de edad; apenas un «bebé», ya que ahora es muy viejo, tiene 13.700 millones de años. Pues bien, esa «foto» del Cosmos se solapa perfectamente con lo que yo dibujé hace treinta años. Son la misma imagen.
-¿Y no hay nada que le haya sorprendido, algo que no encajara en sus cálculos?
-Lo más sorprendente es que no hubo sorpresa. Todo fue confirmado. Era asombroso que las imágenes coincidieran. Todos los experimentalistas intentaban buscar desviaciones y anomalías, pero finalmente todo coincidía. Era exactamente igual.
-¿Qué experimento fue el definitivo, con el que ya no cabían dudas?
-La última palabra la ha dado la sonda Planck (telescopio espacial de la Agencia Espacial Europea), su contribución es tremenda, enorme, ya que gracias a ella los científicos pudieron establecer la imagen más completa del Universo. El experimento fue 500 veces más sensible comparado con otros anteriores, como el WMAP (Sonda de Anisotropía de Microondas Wilkinson, de la NASA). Con Planck no se puede ir más allá, no se puede mejorar más.
-No puede haber mayor satisfacción para un científico que le den la razón de esa forma...
-Por supuesto. Fue una satisfacción enorme. Fíjate que en los 80 estaba en completa contradicción con todas las observaciones astrofísicas en aquel momento, pero lo que parecía una mala teoría finalmente ganó.
-Y esa teoría hablaba de algo diminuto para explicar las estructuras más grandes conocidas. ¿Cómo es eso?
-Sí, cuando el Universo era recién nacido, el comportamiento de la materia estaba afectado por la mecánica cuántica, que prohíbe el estado de reposo absoluto. La mínima desviación del estado de reposo se llama fluctuación cuántica y, debido a ella, se formarían «semillas» de materia que, por la gravedad, acabarían convirtiéndose en galaxias, estrellas y planetas. Todo eso estaba localizado en algo aún más pequeño que una caja de cerillas. Luego, la mecánica cuántica es también responsable del origen de nuestra propia vida.
-¿Cabe una teoría sobre el Cosmos que no tenga en cuenta el Big Bang?
-No, pero llamémosle mejor Universo en expansión. Hemos esclarecido la razón del Big Bang y era un estado de dominación de la energía oscura. Hace 40 años pensábamos que producir un universo era muy difícil, hoy sabemos que es una tarea fácil si tienes la materia en el estado adecuado.
-El último gran descubrimiento de la cosmología son las ondas gravitacionales. Todo el mundo parece fascinado con ellas, ¿usted también?
-Sí, todo el mundo lo está, y, en efecto, es una nueva ventana abierta al Universo y hay que ir por ese camino, pero creo que el anuncio se hizo demasiado pronto. No hay estadística, y la interpretación de los eventos puede prestarse a sospechas. Parece complicado que esas ondas hayan sido producidas por la fusión de dos agujeros negros de 30 masas solares. No pondría la mano en el fuego por esa interpretación. Quizás pueda ser otra cosa, el agujero en el centro de la galaxia, pero no lo sé.
-¿Cree que los científicos de LIGO (el laboratorio que anunció el descubrimiento de las ondas gravitacionales) se precipitaron?
-Sí, yo hubiera esperado a una confirmación más cuidadosa. No se puede declarar victoria antes de confirmarla realmente. Creo que el anuncio fue demasiado exagerado y se «vendió» muy bien, la forma habitual por parte de los americanos para conseguir dinero y seguir haciendo ciencia. Debemos aprender algo de lo que pasó con el experimento BICEP2 hace dos años, que falló al anunciar el descubrimiento de estas ondas. Hay una tendencia a vender demasiado bien los logros.
-Usted llegó a las mismas conclusiones que Hawking sobre las fluctuaciones cuánticas. ¿Siempre está de acuerdo con él?
-No. Los científicos pensamos de forma diferente, no tenemos que estar en completo acuerdo y esa es una de las razones del progreso de la ciencia. Stephen (con quien compartió el Premio Fronteras del Conocimiento 2015 en Ciencias Básicas que otorga la Fundación BBVA) también un día se puso en desacuerdo consigo mismo y se desdijo. Y eso es importante. En investigación no se puede tener una opinión inamovible.
-Ha trabajado con los científicos que desarrollaron la bomba atómica. ¿Cómo fue?
-Sí, trabajé con varios. Zeldóvich, uno de los principales investigadores de la bomba nuclear, con todos sus secretos; el disidente Sacharov, que luego recibió el Nobel de la Paz, y Ginzburg, que propuso una de las ideas básicas de la bomba de hidrógeno. Pero ninguno de ellos hablaba de eso, porque era supersecreto.
-Suena apasionante, pero peligroso.
-Sí, pero mira, la física nuclear salvó a los físicos de los filósofos. En la época de Stalin, los filósofos decidían lo que deberían hacer o decir los físicos, con ideas como si la mecánica cuántica estaba de acuerdo con el marxismo leninismo o no... Podías ser atacado si te equivocabas, y eso significaba que al día siguiente o bien te mataban o te llevaban a un campo de concentración.
-Qué angustia...
-Pero en el 48, los físicos advirtieron que no podían garantizar la construcción de bombas nucleares con esa presión, así que les dejaron en paz. La ideología es una mala influencia cuando se mete en las ciencias naturales, en particular en la antigua Unión Soviética. Cuando lees lo que sucedía hace no tanto tiempo, hace menos de cien años, no te puedes imaginar que la gente pudiera comportarse así, mucho peor que las peores bestias.
-¿Cómo ve la ciencia ahora en su país de origen?
Yo me fui de Rusia en el año 92. Tengo amigos y colaboradores de siempre, pero no proyectos en común. No puedo hablar desde dentro, pero por lo que veo no creo que el gobierno ruso esté cuidando las ciencias. En general, los gobiernos no entienden que, en realidad, ahorran dinero cuando invierten en ciencia. En Italia, España o Francia, los investigadores se quejan por los recortes de los fondos. Creo que es una política ridícula. En Alemania, donde yo vivo y trabajo, Angela Merkel es física y sabe lo importante que es la ciencia. Allí la situación es la opuesta. A veces hay demasiado dinero y no sabes en qué proyecto invertirlo. Pero si piensas en lo que ha costado aquí salvar los bancos, que ha requerido enormes inversiones, lo de la ciencia no es nada. Y eso comparado con la cantidad de dinero que la gente en la ex Unión Soviética ha robado... Y mira el fútbol, cuánto se invierte y cuál es el resultado práctico de esa actividad, que es igual que jugar en un casino.

Plomo español de hace 2.000 años para descubrir los secretos del Universo

Jamás los españoles que trabajaron hace 2.000 años en la Sierra Minera de Cartagena-La Unión imaginaron que el plomo que extraían iba a convertirse hoy en material precioso a la caza de neutrinos, con vistas a descubrir la naturaleza más íntima de la materia y comprender su comportamiento en similares condiciones a las de los primeros instantes de vida del Universo. Para desvelar el secreto de los neutrinos que los físicos persiguen desde decenios, se echa mano también de la historia y de la arqueología. Ese plomo, descubierto en una antigua nave romana que naufragó en aguas de Cerdeña, ayudará a desvelar algunos de los misterios del universo.

Tan precioso como el oro

El experimento se realiza en el laboratorio subterráneo más grande del mundo, el de Gran Sasso, el pico más alto de la cordillera de los Apeninos, en el centro de Italia, bajo 1.400 metros de roca. «El plomo moderno está constituido con 210 PB, un isótopo radiactivo que necesita una media de 22 años para reducirse a la mitad su radioactividad. Es decir, cualquier plomo extraído en los últimos decenios tendría radiactividad. Esta ya ha desaparecido en el plomo de hace dos mil años conservado bajo el mar, que para nosotros es precioso como el oro», manifiesta a ABC el físico Antonio D’Addabbo, que participa en este experimento extraordinario para verificar un fenómeno de la física de los neutrinos jamás observado hasta ahora y que, si constituye un éxito, se asegura que sería digno de un premio Nobel.
El pecio romano con el plomo fue hallado por un submarinista en 1988 en la costa de Cerdeña
El pecio romano con el plomo fue hallado por un submarinista en 1988 en la costa de Cerdeña- ABC
Para los físicos, la nave romana cargada con 2.000 lingotes de plomo, procedente del puerto de Carthago Nova (Cartagena) hundida en un naufragio entre el 80 y 50 antes de Cristo, constituyó un auténtico tesoro. La descubrió casualmente en 1989 un buzo aficionado, Antonello Azori, apasionado del mar y conocedor de las aguas de la isla de Cerdeña, a lo largo de la costa de Oristán, a unos 30 metros de profundidad. Se ha tratado de uno de los descubrimientos submarinos más significativos de los últimos decenios. La nave, de 36 metros por 12, transportaba además de los lingotes de plomo ánforas de diverso tipo y objetos de uso cotidiano. En época romana, el plomo representaba un mercado riquísimo por sus múltiples usos: tuberías para el agua como las utilizadas en Pompeya, urnas cinerarias, monedas, armamento para las legiones romanas... También se utilizaba en la construcción para sostener unidos bloques de piedra. Cada lingote pesaba 33 kilos, que corresponden a las 100 libras romanas, el peso máximo transportable por ley de un esclavo. Doscientos setenta de los lingotes de la nave romana ya han sido trasladados al Laboratorio Nacional Gran Sasso, un importante centro que aglutina a físicos de todo el mundo.

Proyecto CUORE

Así, pues, para proyectarnos en el futuro de la física, se echa mano del pasado en este experimento, con alma antigua española, denominado CUORE. «El experimento trata de descubrir un proceso llamado “doble desintegración beta sin emisión de neutrinos”, fundamental para comprender la naturaleza de la materia y aspectos de la evolución del universo. Este fenómeno, actualmente rarísimo, tan raro que nunca ha sido observado, podría haber sido frecuente al inicio del universo, inmediatamente después del Big Bang, y haber determinado el predominio de la materia sobre la antimateria», nos dice Antonio D’Addabbo.
Una investigadora trabajando sobre una de las estructuras a temperatura intermedia del criostato de CUORE, que cuenta con metro cúbico más frío del universo, cercana al cero absoluto, todo un récord.
Una investigadora trabajando sobre una de las estructuras a temperatura intermedia del criostato de CUORE, que cuenta con metro cúbico más frío del universo, cercana al cero absoluto, todo un récord.- Yury Suvorov/LNGS-INFN
La función del plomo originario de las minas de Cartagena sirve para proteger y aislar completamente el observatorio del experimento: «Son varios los blindajes. En primer lugar, está la montaña que es protectora natural para reducir muchos de los rayos cósmicos, que son las partículas de energía muy alta producidas en su mayor parte por nuestra estrella, el sol. Por ejemplo, la palma de la mano es atravesada por un rayo cósmico cada segundo, más o menos. Solo algunas partículas logran atravesar la roca y llegar a la zona de nuestro experimento. Para evitarlo, CUORE está protegido por otros dos escudos de plomo colocados al interno del criostato –el recipiente que permite mantener las temperaturas muy bajas-, el más grande jamás construido . Uno de los escudos está formado por el plomo procedente de la nave romana, que para nosotros es precioso como el oro», afirma Antonio D’ Addabbo.
Entre las cosas que sorprenden del experimento CUORE está la temperatura. El detector, gracias a refrigeradores mecánicos y a la dilución de helio, trabaja a 10 milliKelvin, cerca del cero absoluto (-273.15º centígrados). «El núcleo de CUORE es el metro cúbico mas frío del mundo. La infraestructura de tipo criogénico que hemos realizado no tiene precedentes, es un enorme, gigantesco frigorífico. El experimento CUORE ha probado que es posible construir una máquina así y hacerla funcionar, algo en lo que esperaban los cinéticos para hacer otros experimentos», explica Antonio D’Addabbo.
Además de intentar descubrir el proceso llamado «doble desintegración beta sin emisión de neutrinos», el proyecto buscará también huellas de materia oscura y estudiará algunas desintegraciones raras. En particular, se estudiarán los neutrinos, las partículas que impregnan el universo, producidas en grandes cantidades en las estrellas. Las que proceden del sol atraviesan continuamente la Tierra: Al segundo, cada centímetro cuadrado de nuestro cuerpo es atravesado, sin que nos demos cuenta, por 60.000 millones de neutrinos, que viajan a una velocidad próxima a la de la luz.

El misterio de los neutrinos

Se espera que CUORE pueda dar respuesta a un interrogante que nos explica el físico Antonio D’ Addabbo: «Se trata de comprobar si el neutrino es una partícula de Majorana –mítico físico siciliano (1906-1938)-, según el cual el neutrino y el antineutrino eran dos manifestaciones de la misma partícula, como las dos caras de una misma moneda; es decir, el neutrino es al mismo tiempo materia y antimateria y la transición entre materia y antimateria resultaría posible».
Así, pues, se trata de arrojar luz de forma experimental sobre si el neutrino es su propia antipartícula o no, lo que constituye uno de los granes interrogantes de la física de las partículas y que se lleva estudiando 75 años. La investigación se intenta adentrar en el origen del universo, según nos aclara Antonio D’ Addabbo: «Llegar a decir que el neutrino y el antineutrino son la misma partícula, que no hay diferencia entre la partícula de materia neutrino y la partícula de antimateria antineutrino querría decir que no hay distinción entre materia y antimateria, que es la misma cosa. Esto tendrá consecuencias muy importantes para explicar los posibles mecanismos que en el origen del universo han conducido a la generación de la asimetría entre materia y antimateria».

Experimento de Nobel

Se explica así el gran interés que en la comunidad científica ha suscitado el experimento CUORE, en el que se trabajará durante cinco años, con la colaboración internacional de 157 científicos de diversos países, procedentes de 30 instituciones, con participación también de España.
En definitiva, se trata de un experimento revolucionario. Y los científicos no tienen duda: Si llega a buen puerto, sería una investigación de premio Nobel. Se iría más lejos del famoso dicho de que somos polvo de estrellas, al confirmarse que nuestros antepasados, nuestro punto de partida son los neutrinos. Por ellos estaríamos aquí.

Fuente:
http://www.abc.es/ciencia/abci-plomo-espanol-hace-2000-anos-para-descubrir-secretos-universo-201703190118_noticia.html

Hacia un implante nanométrico en la retina capaz de curar ciertas clases de ceguera

Zoología
Lunes, 6 marzo 2017
Bioingeniería

Logran grabar en ADN y sin errores una película y un sistema operativo de ordenador

La humanidad podría pronto generar más datos de lo que los discos duros u otros sistemas de almacenamiento masivo puedan acoger de manera eficaz, un problema que ha hecho que los científicos presten atención al ADN, la antiquísima solución de la naturaleza para almacenar información.

En un nuevo estudio, Yaniv Erlich y Dina Zielinski, de la Universidad de Columbia en la ciudad estadounidense de Nueva York, han demostrado que un algoritmo diseñado originalmente para streaming de video en un teléfono móvil o celular puede aprovechar casi por completo el potencial de almacenamiento del ADN gracias a poder comprimir mucho más la información en él que en cualquier otro sistema artificial existente de almacenamiento de información. También han demostrado que esta tecnología es muy fiable.

El ADN constituye un medio de almacenamiento ideal porque es ultracompacto y puede durar cientos de miles de años si se le mantiene en un lugar fresco y seco, como se demostró entre 2013 y 2016 con la obtención de ADN de huesos de un antepasado humano de hace 430.000 años, encontrados en una cueva española.

“El ADN no se degradará con el tiempo como sí les ocurrirá a las cintas de casete y a los CDs. No se volverá obsoleto, y si fuera así, los humanos tendríamos problemas mayores”, dice agudamente Erlich.

Erlich y Zielinski eligieron seis archivos para codificar, o escribir, en el ADN: un sistema operativo completo de ordenador, una película francesa de 1895 (“Llegada de un tren a La Ciotat”), una tarjeta de regalo de 50 dólares de Amazon, un virus de ordenador, el contenido de una placa diseñada como mensaje para extraterrestres y que viaja a bordo de las sondas espaciales Pioneer, y un estudio de 1948 del teórico de la información Claude Shannon.

[Img #42213]

Yaniv Erlich y Dina Zielinski. (Foto: New York Genome Center)

Erlich y Zielinski comprimieron los archivos en uno solo, y después dividieron los datos en secuencias cortas de código binario hecho de ceros y unos. Usando un algoritmo de corrección y borrado, empaquetaron aleatoriamente las secuencias en conjuntos denominados gotas, cartografiando los unos y los ceros de cada gota para las cuatro bases de nucleótidos en el ADN: A, G, C y T. El algoritmo excluyó combinaciones de letras conocidas por crear errores, y añadió un código de barras a cada gota para ayudar a reensamblar los archivos más tarde.

En total, generaron una lista digital de 72.000 cadenas de ADN, cada una de 200 bases de largo, y la enviaron en un archivo de texto a la compañía Twist Bioscience, de San Francisco, especializada en síntesis de ADN y en convertir datos digitales en datos biológicos. Dos semanas más tarde, recibieron un frasco conteniendo una pizca de moléculas de ADN.

Para recuperar del ADN sus archivos, utilizaron tecnología moderna de secuenciación que lee las cadenas de ADN, lo que fue seguido por el uso de un software que traduce el código genético de nuevo a código binario. Así, recuperaron sus archivos sin ningún error en absoluto.

También han demostrado que se podría crear una cantidad virtualmente ilimitada de copias con su técnica de codificación, mediante la multiplicación de su muestra de ADN a través de la reacción en cadena de la polimerasa (PCR), y que esas copias, e incluso las copias de sus copias, y así sucesivamente, pueden seguir almacenando, sin errores, la información original.

Finalmente, los investigadores han demostrado que su estrategia de codificación empaqueta 215 petabytes de datos en un único gramo de ADN, 100 veces más que lo conseguido con los métodos publicados por los investigadores precursores del almacenamiento de datos en ADN, George Church de la Universidad Harvard, y Nick Goldman y Ewan Birney del Instituto de Bioinformática Europeo. “Creemos que es el sistema de almacenamiento de datos de densidad más alta creado hasta ahora”, subraya Erlich.

Fuente:
http://noticiasdelaciencia.com/not/23304/logran-grabar-en-adn-y-sin-errores-una-pelicula-y-un-sistema-operativo-de-ordenador/

Nace Arbolapp Canarias, una app gratuita para identificar los árboles de las islas

¿Sabías que el último drago descrito en el mundo solo vive en los riscos más inaccesibles de Gran Canaria? ¿O que la resina del lentisco se ha mascado como chicle desde los tiempos de la Grecia clásica? ¿O que los aborígenes canarios usaban varas de acebuche para fabricar sus armas defensivas? Estas son algunas de las curiosidades que recoge Arbolapp Canarias, una aplicación para dispositivos móviles que permite identificar los árboles silvestres del archipiélago.

La nueva aplicación, que ya se puede descargar gratuitamente en dispositivos Android e iOS y cuenta con una versión web , es una iniciativa del Consejo Superior de Investigaciones Científicas (CSIC). En concreto, ha sido desarrollada por su Área de Cultura Científica, el Real Jardín Botánico y el Jardín Botánico Canario ‘Viera y Clavijo’ - Unidad asociada al CSIC del Cabildo de Gran Canaria. Además, el proyecto ha recibido financiación de la Fundación Española para la Ciencia y la Tecnología (FECYT) - Ministerio de Economía, Industria y Competitividad.

Arbolapp Canarias incluye información sobre 92 especies de árboles que pueblan bosques y demás hábitats naturales del archipiélago. Las especies están organizadas en 84 fichas (81 individuales y tres que agrupan los géneros acacia, eucalipto y tamarix). Cada ficha contiene fotografías, mapas que muestran en qué islas está presente el árbol, un texto descriptivo y varias curiosidades.

Para identificar una especie, es posible elegir entre dos tipos de búsqueda. Una guiada, en la que hay que escoger en sucesivas pantallas la alternativa que mejor describe el árbol que se quiere reconocer; y otra abierta, que permite encontrar árboles por isla, tipo de hoja, fruto, flor u otros criterios. Con afán divulgativo, la aplicación incluye además un glosario con todos los términos técnicos.

La nueva aplicación complementa los contenidos de Arbolapp, una app dedicada a los árboles silvestres de la península ibérica creada por el CSIC en 2014 y que a día de hoy supera las 350.000 descargas. “Entonces, muchos usuarios reclamaron que la flora canaria, rica en especies endémicas, no se quedara fuera de la iniciativa; algo para lo que era necesaria la colaboración entre centros de investigación de las islas y de la península”, señala Miguel Ángel Rodríguez, consejero de Medio Ambiente del Cabildo de Gran Canaria.

[Img #42489]

La app está disponible para dispostivos Android e iOS. (Foto: CSIC)

En Arbolapp Canarias, las búsquedas y el glosario están ilustrados con dibujos botánicos que facilitan la comprensión de los textos. “El objetivo del proyecto es trasladar a la ciudadanía el conocimiento científico, en este caso sobre los árboles canarios, a partir de una experiencia que está al alcance de cualquiera”, explica Manuel Nogales, delegado institucional del CSIC en Canarias. Junto a este compromiso, Nogales destaca que “la integración de las TIC y la búsqueda de nuevos formatos es una apuesta del CSIC a la hora de divulgar la ciencia”.

Concebida para que cualquier usuario, con o sin conocimientos de botánica, pueda manejarla, Arbolapp Canarias conjuga el uso de un lenguaje asequible con el rigor científico. “Los contenidos se basan en la investigación del Jardín Botánico Canario ‘Viera y Clavijo’ y en obras de referencia como la Lista de especies silvestres de Canarias o el Atlas de las plantas alóctonas invasoras en España”, comenta Juli Caujapé, director de esta institución.

Durante la elaboración de Arbolapp Canarias, que comenzó en enero de 2016, un equipo multidisciplinar ha intervenido en todo el proceso: desde la selección de las especies, hasta la toma de fotografías, la elaboración de los textos y el desarrollo de la línea gráfica. La bióloga Magui Olangua ha sido la responsable de los contenidos.

Eduardo Actis, coordinador del proyecto, incide en que “esta app es una buena herramienta para que el ciudadano de a pie pueda adquirir conocimientos de botánica de forma entretenida”. “Lo interesante es que una experiencia lúdica, como es pasear por un bosque, se pueda transformar en aprendizaje, aunque creemos que también puede ser un recurso didáctico interesante para el personal docente”, señala.

El lugar idóneo para utilizar la aplicación es el medio natural, por lo que la app funciona de manera autónoma sin conexión a internet. Al centrarse en árboles silvestres, es decir, que crecen espontáneamente sin intervención humana, Arbolapp Canarias no incluye especies que solo se encuentran en parques, jardines, calles o terrenos forestales.

Con el objetivo de llegar a un público lo más amplio posible, la aplicación y la web son accesibles tanto en castellano como en inglés.

Fuente:
http://noticiasdelaciencia.com/not/23498/nace-arbolapp-canarias-una-app-gratuita-para-identificar-los-arboles-de-las-islas/

Es factible cultivar patatas en Marte

Se ha logrado construir una diminuta batería de flujo de reducción-oxidación (reacción redox). Una de sus principales aplicaciones estaría en futuros apilamientos de chips de ordenador, en los cuales los chips individuales son apilados como tortitas para ahorrar espacio y energía. Este dispositivo podría abastecer de energía eléctrica a los chips y al mismo tempo enfriarlos. En una batería de flujo, se emplea una reacción electroquímica para producir electricidad a partir de dos electrolitos líquidos, los cuales son bombeados hasta la célula de la batería desde el exterior, a través de un bucle cerrado electrolítico.

Se puede decir, por tanto, que los chips del ejemplo funcionan eficazmente con un combustible líquido y producen su propia electricidad.

Dado que el equipo de Julian Marschewski y Dimos Poulikakos, del Instituto Federal Suizo de Tecnología en Zúrich (también conocido como Escuela Politécnica Federal de Zúrich) utiliza para la batería dos líquidos de los cuales se sabe que son adecuados para actuar como electrolitos de baterías de flujo y también para ejercer una cierta refrigeración, el calor excesivo puede ser disipado desde el apilamiento de chips a través del mismo circuito.

La batería tiene solo 1 milímetro y medio de grosor aproximadamente. La idea sería montar capa a capa el conjunto de chips apilados: un chip de ordenador, después una microcélula delgada de batería que le proporcione electricidad y lo enfríe, para a continuación colocar otro chip, y así sucesivamente.

Las baterías de flujo anteriores son típicamente voluminosas y se han usado sobre todo en aplicaciones de almacenamiento estático de energía, por ejemplo, junto a centrales eólicas o de energía solar, donde la electricidad sobrante allí producida se almacena temporalmente para su uso posterior.

[Img #42467]

La nueva batería de flujo elimina un obstáculo fundamental hacia el uso cotidiano de conjuntos de chips apilados en ordenadores futuros, ya que baterías como esta, integradas en cada conjunto, podrían tanto energizarlos como enfriarlos. (Imagen: IBM Research Zurich)

Marschewski, Poulikakos y sus colaboradores son, hasta donde saben, los primeros que han construido una batería de flujo así de pequeña y destinada combinar suministro energético y refrigeración.

La generación eléctrica de la nueva microbatería también constituye un récord teniendo en cuenta el tamaño de la misma: 1,4 vatios por centímetro cuadrado de superficie de batería. Aunque restemos la energía necesaria para bombear los electrolitos líquidos hacia la batería, la densidad de energía neta resultante no desciende de 1 vatio por centímetro cuadrado.

En experimentos realizados por el equipo de Marschewski y Poulikakos, se ha demostrado que los líquidos electrolitos pueden efectivamente refrigerar un chip, disipando cantidades de calor muy superiores a la del producido como consecuencia del funcionamiento de la batería generando energía eléctrica.

En el trabajo de investigación y desarrollo también ha participado la empresa IBM Research Zurich.

Fuente:
http://noticiasdelaciencia.com/not/23490/combustible-liquido-para-ordenadores/