Machine Learning Tarragona #191211

11/12/2019


machine-learning-tarragona-191211

Machine Learning Tarragona es el resumen principal de noticias de Machine Learning (Aprendizaje Automático) y Deep Learning (Aprendizaje Profundo) para el área de Tarragona, España.

Los principales desarrollos en este campo, ya sean nuevas tecnologías, compañías o productos, procesados y simplificados para que lo puedas tener de forma fácil, simple y gratis!

Los ejemplos y tutoriales de Machine Learning permiten que los nuevos contenidos, muchas veces de gran complejidad, sean accesibles para una audiencia más amplia. A su vez, las técnicas y algoritmos de Machine Learning, ofrecen los últimos avances en investigación de forma más interesante y simple de comprender. Se incluye, también, ejemplos y técnicas de Python, ya que es uno de los lenguajes más utilizados en este campo.

Este contenido se complementa con información específica para el área de Tarragona, España.


Uso de Machine Learning y redes neuronales para soluciones espaciales avanzadas


KP Labs, una compañía de NewSpace con sede en Polonia, se especializa en aplicaciones de Machine Learning para la industria espacial y adquisición y procesamiento de imágenes hiperespectrales. La compañía se enfoca en acelerar la exploración espacial mediante el avance de la operación autónoma de naves espaciales y la tecnología robótica. Su producto estrella es la misión satelital Intuition-1. Es un satélite 6U, equipado con un instrumento óptico hiperespectral y un ordenador a bordo "Leopard" que avanzó el procesamiento de datos a través de redes neuronales convolucionales.

Aguas abajo, la compañía se concentra en el uso de imágenes hiperespectrales para fines industriales y agrícolas. Para esta aplicación, ha desarrollado un generador de imágenes ligero e hiperespectral "Zebra".

Hace unos meses, KP Labs firmó un contrato con ACC Clyde Space para la entrega de un autobús satelital y colocar el satélite en órbita terrestre baja. Se espera el lanzamiento de Intuition-1 para 2023. La misión de Intuition-1 es realizar la observación de la Tierra utilizando un instrumento hiperespectral y un procesamiento de datos avanzado basado en redes neuronales profundas (IA) a bordo del satélite.

KP Labs también está involucrado con la Agencia Espacial Europea en proyectos como HYPERNET, que trata sobre la segmentación de imágenes HYPER-espectral usando redes neuronales profundas, y SUPER RESOLUCIÓN - Reconstrucción de súper resolución (SRR) con redes neuronales profundas. El objetivo de las técnicas de SRR es mejorar la calidad y aumentar la resolución de las imágenes mientras se restauran tantos detalles como sea posible de la imagen o imágenes de origen.

http://bit.ly/2DCOQvm

 

Los químicos muestran cómo el sesgo puede surgir en los resultados del algoritmo de Machine Learning


Un equipo de científicos de materiales en el Haverford College ha demostrado cómo el sesgo humano en los datos puede afectar los resultados de los algoritmos de Machine Learning utilizados para predecir nuevos reactivos para su uso en la fabricación de los productos deseados. En su artículo publicado en la revista Nature, el grupo describe la prueba de un algoritmo de Machine Learning con diferentes tipos de conjuntos de datos y lo que encontraron.

Una de las aplicaciones más conocidas de los algoritmos de Machine Learning es el reconocimiento facial. Pero hay posibles problemas con tales algoritmos. Uno de estos problemas ocurre cuando un algoritmo facial destinado a buscar a un individuo entre muchas caras ha sido entrenado con personas de una sola raza. En este nuevo esfuerzo, los investigadores se preguntaron si el sesgo, involuntario o no, podría estar surgiendo en los resultados del algoritmo de Machine Learning utilizados en aplicaciones químicas diseñadas para buscar nuevos productos.

Dichos algoritmos usan datos que describen los ingredientes de las reacciones que resultan en la creación de un nuevo producto. Pero los datos sobre los que se entrena el sistema podrían tener un gran impacto en los resultados. Los investigadores señalan que actualmente, dichos datos se obtienen de los esfuerzos de investigación publicados, lo que significa que generalmente son generados por humanos. Señalan que los datos de tales esfuerzos podrían haber sido generados por los propios investigadores o por otros investigadores que trabajan en esfuerzos separados. Los datos incluso podrían provenir de una sola persona que simplemente se relacionan de memoria, o de la sugerencia de un profesor, o de un estudiante graduado con una idea brillante. El punto es que los datos podrían estar sesgados en términos del fondo del recurso.

http://bit.ly/2PvDSiB

 

Cómo Machine Learning puede ayudar a desbloquear el mundo del antiguo Japón


La rica historia de la humanidad ha dejado una enorme cantidad de documentos y artefactos históricos. Sin embargo, prácticamente ninguno de estos documentos, que contienen historias y experiencias grabadas esenciales para nuestro patrimonio cultural, puede ser entendido por personas no expertas debido a cambios en el idioma y la escritura a lo largo del tiempo.

Por ejemplo, un arqueólogo ha desenterrado decenas de miles de tabletas de arcilla de la antigua Babilonia, pero solo unos pocos cientos de académicos especialmente capacitados pueden traducirlas. La gran mayoría de estos documentos nunca se han leído, incluso si se descubrieron en el siglo XIX. Para dar una ilustración adicional del desafío planteado por esta escala, se recogió una tableta del Cuento de Gilgamesh en una expedición en 1851, pero su importancia no salió a la luz hasta 1872. Esta tableta contiene una narración de inundación prebíblica, que tiene un enorme significado cultural como precursor de la narrativa del Arca de Noé.

Este es un problema global, pero uno de los ejemplos más llamativos es el caso de Japón. Desde 800 hasta 1900 CE, Japón utilizó un sistema de escritura llamado Kuzushiji, que fue eliminado del plan de estudios en 1900 cuando se reformó la educación primaria. Actualmente, la gran mayoría de los hablantes japoneses no pueden leer textos que tienen más de 150 años. El volumen de estos textos, compuesto por más de tres millones de libros almacenados pero que solo puede leer un puñado de académicos especialmente capacitados, es asombroso. Una sola biblioteca ha digitalizado 20 millones de páginas de dichos documentos. El número total de documentos, incluidas, entre otras, cartas y diarios personales, se estima en más de mil millones. Dado que muy pocas personas pueden entender estos textos, principalmente aquellos con doctorados en literatura japonesa clásica e historia japonesa, sería muy costoso y requeriría mucho tiempo financiar a los académicos para convertir estos documentos al japonés moderno. Esto ha motivado el uso de Machine Learning para comprender automáticamente estos textos.

http://bit.ly/33HXaVa

 
Tu opinión es muy importante! Deja tu comentario con sugerencias o ideas de cómo mejorar este servicio.

Puedes seguir noticias y eventos en facebook: https://www.facebook.com/machinelearningtarragona

#machinelearning #deeplearning #tarragona

 

Artículos relacionados

0 comentarios