miércoles, 17 de mayo de 2017

Día de Internet 2017

 Día de Internet en Argentina


¿Que es el #diadeinternet?
El #díadeinternet es un proyecto en red que surge de la sociedad, por la sociedad y para la sociedad. Está abierto a la participación voluntaria y gratuita de todos. La efeméride pretende dar a conocer las posibilidades que brindan de las nuevas tecnologías para mejorar el nivel de vida de los pueblos y de sus ciudadanos. Uno de los aspectos claves del #díadeinternet es la libertad de cada colectivo para decidir qué hace, cómo lo hace y a quién dirige sus actuaciones. Todos pueden decidir su grado de implicación y a todos se les reconoce la misma importancia.

¿Por qué un #diadeinternet
El #díadeinternet aporta una oportunidad para impulsar y favorecer el acceso a la Sociedad de la Información de los no conectados y de los discapacitados. Además, aprovecha la experiencia adquirida, para fomentar la celebración del #díadeinternet en otros países. 

En el artículo 121 del documento de conclusiones de la Cumbre Mundial de la Sociedad de la Información se afirma que:

“Es necesario contribuir a que se conozca mejor Internet para que se convierta en un recurso mundial verdaderamente accesible al público. El 17 de mayo Día Mundial de la Sociedad de la Información, se celebrará anualmente y servirá para dar a conocer mejor la importancia que tiene este recurso mundial, en especial, las posibilidades que pueden ofrecer las TIC a las sociedades y economías, y las diferentes formas de reducir la brecha digital.”

¿Quién hace realidad el #diadeinternet?
La organización del #díadeinternet se apoya en cuatro pilares fundamentales: una Oficina Técnica, puesta en marcha desde una Asociación de Usuarios de Internet en cada país participante; un Comité de Impulso, donde se integran los agentes sociales más relevantes (Administraciones, asociaciones, federaciones, universidades, colegios, sindicatos, partidos políticos,...); los Promotores, que desarrollan eventos y actividades y los Comunicadores, que contribuyen a su difusión.

domingo, 14 de mayo de 2017

El futuro ya llegó Parte II

El ataque de ‘ransomware’ se extiende a escala global
España, Portugal, Reino Unido y Rusia, entre los afectados. Estos virus informáticos cifran la información de los ordenadores a cambio de un rescate

JOANA OLIVEIRA - ROSA JIMÉNEZ CANO 
para El País, España.

13/05/2017



Un enorme ciberataque ha golpeado sistemas informáticos en decenas de países. El virus, conocido como ransomware, afectó, entre otros, a los equipos de la sede de Telefónica en Madrid, al sistema de salud británico o el ministerio del Interior ruso. El ransomware causa un secuestro exprés de datos y pide un rescate para liberar el sistema. En un tuit, Costin Raiu, el director global del equipo de investigación y análisis de Kaspersky Lab, empresa de seguridad informática, estimó que ayer se habían registrado más de 45.000 ataques en 74 países. De momento, ninguna infraestructura crítica ha resultado afectada.

Ese tipo de virus, que al ser ejecutado aparenta ser inofensivo e imita a otras aplicaciones, es el más habitual y representa el 72,75% del malware, de los ataques maliciosos, según los últimos informes de las compañías Kaspersky Lab y PandaLab. Los análisis del Instituto Nacional de Ciberseguridad (Incibe) de España recogían que el softwaremalicioso que provocó el ciberataque a nivel global es un WanaCrypt0r, una variante de WCry/WannaCry. Tras instalarse en el equipo, ese virus bloquea el acceso a los ficheros del ordenador afectado pidiendo un rescate para permitir el acceso, y puede infectar al resto de ordenadores vulnerables de la red. WanaCrypt0r cifra archivos del disco duro con extensiones como .doc .dot .tiff .java .psd .docx .xls .pps .txt o .mpeg, entre otros, y aumenta la cuantía del rescate a medida que pasa el tiempo. “El cifrado de los archivos prosigue tras la aparición de la nota de extorsión, al contrario que en otros ataques, que no muestran la nota hasta que el cifrado se ha completado”, explicaba Agustín Múñoz-Grandes, CEO de s21Sec.

Jaime Blasco, director de los laboratorios de Alienvault en San Francisco, aportó algo de luz y tranquilidad. El ataque se paró tras la difusión de un parche de Windows por parte de Microsoft. El origen el ataque fue un exploit, como se denomina a los softwares enmascarados que corrompen el sistema. Se filtró como parte de shadow brokers, supuestamente los mismos archivos que Wikileaks acusaba a la NSA de usar en su última denuncia.

Microsoft, preocupada por la difusión de este agujero, no había dado una respuesta oficial, pero sí contempla que la industria se replantee los criterios y formas en que se actualizan los programas para que la protección frente a vulnerabilidades no dependa tanto de voluntad humana, como de automatismos. Uno de los afectados en Londres explicaba en un hilo de los foros de Reddit, la situación: “Citas, tratamientos, resultados... Los responsables han ido a por miles de personas vulnerables y deben ser tratados como terroristas”.

“Este tipo de ataques afecta a todo el mundo, pero hemos visto cómo los delincuentes tratan de ir a por empresas, ya que poseen información valiosa por la que están dispuestos a pagar un rescate”, indica el estudio de Panda. Algunos expertos en ciberseguridad, como Jakub Kroustek, afirmaban en las redes sociales que habían rastreado hasta 50.000 ataques de WannaCry. Este mismo experto aseguró en el blog de su compañía, Avast, que observaron la primera versión de este virus en febrero y que habían encontrado el mensaje de rescate escrito en 28 idiomas.

Según Eusebio Nieva, director técnico de Check-Point en España y Portugal, el ransomware es la estrategia más utilizada para atacar a las grandes empresas. “Los hackers piden que el rescate se realice a través de un pago digital que no se pueda rastrear”, decía Nieva. El experto explica que ese software maligno puede llegar a un sistema de manera simple, desde un correo electrónico con una factura falsa, por ejemplo, hasta una técnica conocida como watering hole, que en el caso de las grandes compañías, infecta una página (generalmente de la red intranet) a la que los trabajadores o usuarios acceden con frecuencia. “Esa es la forma más rápida para una distribución masiva”, afirmó.

Rescate sin garantías

El experto señalaba, sin embargo, que el pago de un rescate no es garantía de que se pueda recuperar la información cifrada por el virus: “La posibilidad es de entre un 30% y un 40%”. Pero, ¿cómo es posible protegerse de esos ataques? El experto sostiene que, en la era en que los malware han dejado de ser obra de atacantes individuales para convertirse en una red industrializada que genera dinero, los tradicionales programas de antivirus ya no son suficientes. Los más punteros de protección, según Nieva, son los programas de anti-APP o sandbouxing, que rastrean el comportamiento del sistema o de la red de información, identifican cualquier software malicioso y lo eliminan.

“El sandboxing es el que mejor funciona. Cuando llega un documento por correo, por ejemplo, el sistema lo abre en un entorno virtual y si detecta algo sospechoso, lo elimina antes de que llegue al usuario”, explica el experto. El problema, según el experto, es que se trata de un modelo reciente y muchas empresas los utilizan simplemente como un sistema de detección en vez de protección.

El Gobierno de España emitió ayer un comunicado en el que orientaba a los posibles afectados sobre cómo aplicar los últimos parches de seguridad publicados en los boletines de mayo.

El virus tiene una particular forma de actuar. Después de cifrar los ficheros del disco duro, WanaCrypt0r cambia el nombre de los nombres de las extensiones de los archivos afectados por .WNCRY. Después, el virus hace saltar a la pantalla el siguiente mensaje: “Ooops, tus archivos importantes están encriptados” y solicita el rescate de 300 dólares (274 euros, aproximadamente) en bitcoins (un tipo de moneda digital) para liberarlos. El mensaje incluye instrucciones sobre cómo realizar el pago y un cronómetro.

“Este ataque demuestra una vez más que el ransomware es una poderosa arma que puede utilizarse contra los consumidores y las empresas por igual. El virus se vuelve particularmente desagradable cuando infecta instituciones como hospitales, donde puede poner la vida de las personas en peligro”, afirmaba Avast en un comunicado.

Fuente



El futuro ya llegó Parte I

Presentan el procesador más potente para la era de la Inteligencia Artificial
Nvidia lanzó el Tesla V100, con la mira puesta en el deep learning.

Damián Taubaso para Clarín.
12/05/2017


Jensen Huang, CEO de Nvidia, presentó Volta, una nueva arquitectura de GPU (unidad de procesamiento gráfico) que quintuplica la performance de la anterior.

En el marco de la GPU Tech Conference en San José, California, la empresa además presentó el procesador Tesla V100, basado en la nueva arquitectura, con el foco puesto en la Inteligencia Artificial y el Deep Learning.

"Existe una altísima demanda de más poder de cómputo para la Inteligencia Artificial", explicó Huang en su keynote. "Hace dos años, los sistemas de reconocimiento de imágenes más avanzados requerían siete exaflops (es decir, 7 por 10 elevado a la 18 operaciones de coma flotante por segundo) de poder de cómputo. Ahora, los investigadores que desarrollan sistemas de traducción de lenguaje en tiempo real necesitan más de 100 exaflops de poder. En comparación, el rendimiento máximo acumulado de las 500 supercomputadoras más rápidas del mundo está por debajo de un exaflop", agregó.

"La Inteligencia Artificial está impulsando los mayores avances tecnológicos de la historia humana", destacó Huang. "Automatizará la inteligencia y estimulará una ola de progreso social inigualable desde la revolución industrial", predijo el empresario taiwanés, de 54 años.

"El Deep Learning, un innovador enfoque de la Inteligencia Artificial que crea software que aprende, tiene una demanda insaciable de poder de cómputo. Miles de ingenieros de Nvidia trabajaron durante tres en Volta para ayudar a satisfacer esa necesidad, para permitir a la industria que de rienda suelta al potencial transformador de la humanidad de la Inteligencia Artificial", sostuvo.

Fabricado con 21 mil millones de transistores y 5.120 núcleos, el lanzamiento llega acompañado de la renovación de las plataformas de Deep Learning más usadas, como Caffe 2, Microsoft Cognitive Toolkit, MXNet, y TensorFlow.

Los primeros productos en incorporar esta novedosa tecnología son el DGX-1, un datacenter con ocho procesadores Volta cuyo precio llega a los 149 mil dólares, y el DGX Station, un sistema personal con cuatro procesadores Volta, cuyo valor se estima en 69 mil dólares.

Estos sistemas proveen el rendimiento de hasta 800 procesadores convencionales en una sola unidad.

La era del GPU

La Unidad de procesamiento gráfico o GPU es un procesador cuya arquitectura, a diferencia del CPU (unidad central de procesamiento) facilita el procesamiento en paralelo y está optimizada para trabajar con grandes cantidades de datos y realizar las mismas operaciones, una y otra vez.

Este tipo de operaciones y análisis de datos son los que se utilizan para dar vida a la Inteligencia Artificial.

Fuente

martes, 16 de febrero de 2016

La Ley de Moore morirá el mes que viene

Gordon E. Moore ya forma parte de la historia de los ordenadores por dos razones muy diferentes. Como uno de los fundadores de Intel es una figura clave en el desarrollo de los procesadores y en la evolución de los PCs, a lo largo de su historia.

por Juan Antonio Pascual.


Pero su principal aportación al hardware de los ordenadores es su mítica Ley de Moore. El 19 de abril de 1965, Moore afirmó que el número de transistores de un microprocesador se duplicaría cada año. Una ley que se ha cumplido casi a la perfección durante los últimos 51 años.

No tiene base científica, pues se basa en la simple observación. Moore actualizó la Ley en 1975, afirmando que el número de transistores de un microprocesador se duplicaría no en un año, sino en dos. Pero tanto la antigua como la nueva Ley de Moore se han venido cumpliendo de forma precisa durante los últimos 51 años... hasta ahora. La revista científica Nature afirma que el próximo mes de marzo la Ley de Moore morirá de forma oficial, para siempre.

¿Por qué es tan importante en informática?

Los transistores de un microprocesador se usan como una especie de unidad de medida, porque un transistor se emplea principalmente para manejar unos y ceros, las unidades básicas de la informática. Como más transistores tenga un chip, más capacidad de proceso ofrece.

Desde que se formuló la Ley de Moore, en 1965, el número de transistores de un procesador se ha venido duplicando cada año la primera década, y cada dos años a partir de 1975. Durante medio siglo los principales fabricantes de procesadores han usado esta ley como una especie de objetivo a alcanzar, y han diseñado sus estrategias de desarrollo en torno a ella.

Pero a partir del mes que viene, según la revista Nature, la Ley de Moore estará oficialmente muerta, porque las estrategias de desarrollo de los fabricantes ya no van a centrarse en el aumento de los transistores dentro de un chip.

Los procesadores actuales se fabrican utilizando una tecnología de 14 nanómetros, un valor que indica la distancia entre transistores. Un nanómetro (nm) es la mil millonésima parte de un metro. O, en otras palabras, en un milímetro caben un millón de namómetros.

Como más transistores introduzcas es un espacio menor, más calor generan. Los expertos afirman que, a partir de los 14 nm, ya resulta muy complicado seguir el ritmo de duplicación de transistores, porque no se puede disipar el calor correctamente.

Otro factor decisivo en la muerte de la Ley de Moore es el coste. Reducir un solo nanómetro el proceso de fabricación de un chip puede costar cientos de millones de dólares, porque hay que modificar tanto la tecnología como las fábricas. Hoy en día, con las crisis mundiales y la bajada de precio de los ordenadores y smartphones, ese sobrecoste no se puede asumir.

¿Y cómo van a fijar sus objetivos los fabricantes de chips a partir de ahora? Según Nature, ya no se prioriza el aumento de transistores, sino las aplicaciones. Según el tipo de programas y aplicaciones que se vayan a usar, se diseñarán CPUs adaptadas a su arquitectura, para sacarles el máximo provecho.

Por la propia naturaleza de la Ley (no se puede duplicar eternamente un componente mientras al mismo tiempo se reduce el tamaño de su contenedor), tarde o temprano la fecha de caducidad de la Ley de Moore tenía que llegar. Ni en sus sueños más optimistas, George E. Moore se imaginaba que estaría vigente durante más de 50 años.

fuente: Computer Hoy

lunes, 1 de febrero de 2016

Arthur Clarke predice Internet


En 1964, en el programa Horizon de la BBC, Arthut Clarke, sostiene al final del programa, lo que podríamos definir como una predicción de la aparición de Internet:

"Creo que las ciudades pueden no existir para el año 2000. Y no lo digo por las bombas atómicas sino por los increíbles avances en las telecomunicaciones que son posibles gracias a los transistores y los satélites de comunicaciones. Esto hará posible un mundo en el que estaremos comunicados constantemente, sin importar dónde nos encontremos, aún desconociendo la ubicación física de nuestros amigos. Será posible, dentro de 50 años, que una persona haga su trabajo en Tahití o Bali del mismo modo que podría hacerlo en Londres."

Diez años después, en 1974, predice Internet con más precisión, se lo puede ver en el siguiente video:


Este breve video, con Arthur C. Clarke, da comienzo a la película Steve Jobs, de Danny Boyle.