Machine Learning Tarragona #190626

26/06/2019


machine-learning-tarragona-190626

Machine Learning Tarragona es el resumen principal de noticias de Machine Learning (Aprendizaje Automático) y Deep Learning (Aprendizaje Profundo) para el área de Tarragona, España.

Los principales desarrollos en este campo, ya sean nuevas tecnologías, compañías o productos, procesados y simplificados para que lo puedas tener de forma fácil, simple y gratis!

Los ejemplos y tutoriales de Machine Learning permiten que los nuevos contenidos, muchas veces de gran complejidad, sean accesibles para una audiencia más amplia. A su vez, las técnicas y algoritmos de Machine Learning, ofrecen los últimos avances en investigación de forma más interesante y simple de comprender. Se incluye, también, ejemplos y técnicas de Python, ya que es uno de los lenguajes más utilizados en este campo.

Este contenido se complementa con información específica para el área de Tarragona, España.


No se requiere la nube: ¿Por qué el futuro de Inteligencia Artificial está en la "vanguardia"?


Para todas las promesas y peligros de la Inteligencia Artificial, hay un gran obstáculo para su marcha implacable: los algoritmos para ejecutar aplicaciones de Inteligencia Artificial han sido tan grandes y complejos que han requerido el procesamiento en poderosas máquinas en la nube y en los centros de datos, haciendo una amplia gama de aplicaciones menos útiles en teléfonos inteligentes y otros dispositivos "de vanguardia".

Ahora, esa preocupación se está desvaneciendo rápidamente, gracias a una serie de avances en los últimos meses en software, hardware y tecnologías de gestión de energía que están llegando rápidamente al mercado.

Es probable que eso haga que los productos y servicios impulsados ​​por la Inteligencia Artificial se alejen aún más de la dependencia de los poderosos servicios de computación en la nube y les permita pasar a cada parte de nuestras vidas, incluso dentro de nuestros cuerpos. A su vez, eso finalmente podría dar paso a lo que la firma consultora Deloitte a fines del año pasado llamó "inteligencia generalizada", sacudiendo a las industrias en los próximos años a medida que los servicios de Inteligencia Artificial se vuelven omnipresentes.

Para el año 2022, el 80% de los teléfonos inteligentes enviados tendrán capacidades de Inteligencia Artificial en el dispositivo, un aumento del 10% en 2017, según el investigador de mercado Gartner Inc. Y para el año 2023, se agregarán aproximadamente 1,2 mil millones de envíos de equipos con capacidades de cómputo de Inteligencia Artificial en el dispositivo, por encima de los 79 millones en 2017, según ABI Research.

Muchas startups y sus patrocinadores perciben una gran oportunidad. Según Jeff Bier, fundador de Embedded Vision Alliance, que celebró una conferencia en Silicon Valley, los inversores han invertido unos $ 1.5 mil millones en nuevas startups de chips Inteligencia Artificial en los últimos tres años, más de lo que se invirtió en todas las startups de chips en el tres años anteriores. El investigador de mercado Yole Développement pronostica que los procesadores de aplicaciones de Inteligencia Artificial disfrutarán de una tasa de crecimiento anual compuesta del 46% hasta 2023, cuando casi todos los teléfonos inteligentes los tendrán, desde menos del 20% en la actualidad.

http://bit.ly/2HWR5fS

 

Una guía completa para el algoritmo de Bosque Aleatorio (Random Forest)


El bosque aleatorio o Random Forest es un algoritmo de Machine Learning flexible y fácil de usar que produce, incluso sin ajuste de parámetros múltiples, un gran resultado la mayor parte del tiempo. También es uno de los algoritmos más utilizados, debido a su simplicidad y diversidad (se puede usar tanto para tareas de clasificación como de regresión).

Cómo funciona el bosque aleatorio
El bosque aleatorio es un algoritmo de aprendizaje supervisado. El "bosque" que construye, es un conjunto de árboles de decisión o Decision Trees, generalmente entrenados con el método de "empaquetado". La idea general del método de embolsado es que una combinación de modelos de aprendizaje aumenta el resultado general.

En pocas palabras: el bosque aleatorio crea múltiples árboles de decisión y los combina para obtener una predicción más precisa y estable.

Una gran ventaja de los bosques aleatorios es que puede usarse tanto para problemas de clasificación como de regresión, que forman la mayoría de los sistemas actuales de Machine Learning.

El bosque aleatorio tiene casi los mismos hiperparámetros que un árbol de decisión o un clasificador de empaquetamiento. Afortunadamente, no es necesario combinar un árbol de decisiones con un clasificador de empaquetado porque se puede usar fácilmente la clase clasificadora de bosque aleatorio. Con el bosque aleatorio, también puede lidiar con las tareas de regresión utilizando el regresor del algoritmo.

http://bit.ly/2IJdiyB

 

¿Ejecutando modelos de Deep Learning en hardware Intel? Es hora de considerar un sistema operativo diferente


Cuando se trata de entrenar modelos de Deep Learning, NVIDIA puede estar recibiendo toda la atención. Sin embargo, Intel no está sentado en silencio, solo mirando la enorme oportunidad de Inteligencia Artificial. Se está moviendo rápidamente en la entrega de una plataforma de hardware y software de extremo a extremo optimizada para ejecutar los modelos Inteligencia Artificial y Machine Learning.

En primer lugar, Intel ha realizado un extenso trabajo para hacer que la familia de procesadores Xeon esté altamente optimizada para Inteligencia Artificial. Los procesadores escalables Intel Xeon superan a las GPU al acelerar el entrenameinto en grandes conjuntos de datos.

Intel les está diciendo a sus clientes que no necesitan GPU caras hasta que no alcancen un cierto umbral. La mayor parte del entrenamiento en Deep Learning puede realizarse de manera efectiva en CPU, que cuestan una fracción de sus contrapartes de GPU.

Más allá de los mensajes y reclamos de marketing, Intel probó que su pila de Deep Learning funciona mejor que la pila basada en GPU de NVIDIA. Recientemente, Intel publicó una comparativa para mostrar su liderazgo en Deep Learning. Los procesadores escalables Intel Xeon entrenaron una red de Deep Learning con 7878 imágenes por segundo en ResNet-50, superando las 7844 imágenes por segundo en NVIDIA Tesla V100.

La optimización del rendimiento de Intel no proviene solo de sus CPU. Se entrega mediante una pila de software especialmente diseñada que está altamente optimizada en varios niveles. Desde el sistema operativo hasta el marco de TensorFlow, Intel ha ajustado varias capas de software para ofrecer un rendimiento inigualable.

http://bit.ly/2HZyOif

 
Tu opinión es muy importante! Deja tu comentario con sugerencias o ideas de cómo mejorar este servicio.

Puedes seguir noticias y eventos en facebook: https://www.facebook.com/machinelearningtarragona

#machinelearning #deeplearning #tarragona

 

Artículos relacionados

0 comentarios