Entradas

El proyecto Postdata en la Conferencia Anual de CLARIN

La Conferencia Anual de CLARIN fue organizada CLARIN ERIC, en colaboración con el Instituto de Lingüística Computacional (ILC) que forma parte del Departamento de Ciencias Sociales y Humanidades, Patrimonio Cultural (DSU) del Consejo Nacional de Investigación de Italia (CNR)

CLARIN2018 tuvo como objetivo intercambiar ideas y experiencias acerca del funcionamiento y servicios de CLARIN, así como su utilidad por parte de la comunidad de investigadores y su relación con otras infraestructuras y proyectos.

Del encuentro han participado Elena González-Blanco, directora general de CoverWallet en Europa e Investigadora principal de POSTDATA y Salvador Ros, Coordinador del proyecto DESIR y coordinador técnico de POSTADATA. Los principales resultados y herramientas del proyecto se han presentado durante el evento https://zenodo.org/record/1465501#.W8m8a0szbIU .

Las herramientas de poesía están destinadas a ser un mercado de código abierto donde se encuentran diferentes herramientas para procesar poesía desde la detección del modelo de poesía hasta procesos semánticos más complejos. Pero no solo está dedicado a los procesos de poesía, sino a cualquier proceso que mejore y permita una comprensión más profunda de la misma.

Las herramientas de POSTDATA que fueron presentadas son ANJA y HISMETAG. Una está relacionada con el concepto de enjambment y la segunda está relacionada con el reconocimiento de las entidades nombradas en los textos medievales.

Para más información del proyecto POSTDATA podéis visitar:

http://postdata.linhd.es

 

 

El proyecto POSTDATA ha nacido para crear un puente digital

POSTDATA es un proyecto financiado de ERC Starting Grants de investigación en humanidades digitales que busca comparar las distintas tradiciones poéticas utilizando la tecnología de la web semántica.

El proyecto POSTDATA “Poetry Standardization and Linked Open Data”, dirigido por Elena González-Blanco García y Salvador Ros Muñoz, es un proyecto del Consejo Europeo de Investigación (European Research Council) de más de un millón de euros con una duración de cinco años (inicio mayo 2016) en los ámbitos de la Ciencia y las Humanidades digitales.

El proyecto se ha convertido en líder de un programa pionero que suma a la Filología investigadores del ámbito de la documentación, la informática, la lingüística computacional y la tecnología de la web semántica y  los datos. El proyecto está integrado en el Laboratorio de Innovación en Humanidades Digitales de la UNED (LINHD), centro pionero en España y en español en este campo.

EL proyecto:

La necesidad de estandarización viene de la mano de la importancia de intercambiar conocimiento y fomentar el entendimiento entre los diferentes campos. Las disciplinas científicas establecieron de una forma temprana protocolos y lenguas para realizar ese trasvase de información, creando unos estándares que fueron rápidamente adquiridos y adaptados para resolver sus problemáticas específicas. Las áreas de humanidades y la cultura han seguido, sin embargo, un camino independiente en el que la creatividad y la tradición juegan un papel esencial. La literatura, y especialmente la poesía, constituyen un claro reflejo de esta idiosincrasia. Desde el punto de vista filológico, no hay un sistema uniforme de analizar, clasificar o estudiar las diferentes manifestaciones poéticas, y la divergencia de teorías es aún mayor cuando se comparan diferentes escuelas poéticas correspondientes a distintas lenguas y períodos. El proyecto POSTDATA ha nacido para crear ese puente digital entre los acervos culturales tradicionales y el mundo creciente de los datos. El proyecto se centra en el análisis, clasificación y publicación de la poesía aplicando metodologías de análisis propias de las Humanidades Digitales, como la codificación en XML-TEI, para buscar la estandarización. Los problemas de interoperabilidad entre las diferentes colecciones poéticas se resuelven utilizando tecnologías de la web semántica para enlazar y publicar conjuntos de datos literarios de forma estructurada en la nube de datos enlazados.

La ventaja de convertir la poesía en datos disponibles en línea legibles para máquina es triple: en primer lugar, la comunidad académica tendrá una plataforma digital accesible para trabajar con corpora poéticos, contribuyendo al enriquecimiento de los propios textos; segundo, esta forma de codificar y estandarizar la información poética, será una garantía de preservación para poemas conservados solamente en libros impresos, o incluso transmitidos oralmente; y tercero, los conjuntos de datos y los corpora estarán disponibles en acceso abierto para su uso con otras finalidades, como la educación, la difusión cultural o el entretenimiento.

Para lograr este fin, se ha creado un laboratorio de poesía dentro de la plataforma que permite a los usuarios aplicar las últimas tecnologías del lenguaje y de la lingüística computacional para analizar los datos poéticos. Algunas de estas herramientas incluyen un analizador métrico que detecta la estructura silábica de las estrofas y los patrones acentuales, el reconocimiento de entidades nombradas para extraer lugares, fechas y personas mencionadas, la combinación de lematizadores y parsers para identificar las estructuras sintácticas con propósitos poéticos y el análisis de sentimiento para descubrir emociones y sentimientos en los poemas. La combinación de todos estos procesos en el mismo entorno mejorará y facilitará el análisis a los investigadores, generando nuevas aplicaciones, como la detección automática del género poético o el análisis de figuras retóricas y estilísticas. .

Uno de los objetivos del proyecto es proporcionar a la comunidad científica de poesía los medios para que puedan publicar los resultados de su investigación como datos abiertos enlazados (LOD) y de esta manera, poder explotar las ventajas que ofrece este tipo de recursos, propios de la web semántica (la publicación de datos que puedan ser procesados por maquinas inteligentes).   

Siguiendo este objetivo, el proyecto ha diseñado un modelo de datos que contiene los conceptos necesarios para poder desarrollar investigación en poesía europea. Al ser esta una tarea muy ambiciosa (abarcar todas las lenguas, periodos, etc de la poesía europea), es necesaria la colaboración de investigadores de todas las tradiciones poéticas de Europa para que validen nuestro trabajo.

Con este fin el proyecto ha desarrollado un formulario que, a través de la inserción de datos resultantes del análisis de los expertos, comprueba que el modelo de postdata no tenga ninguna laguna conceptual.

Enlace al formulario http://postdata-model-validation.linhd.es/

Gracias a este proceso de validación de nuestro trabajo, podremos poner a disposición de la comunidad investigadora en poesía, un modelo ontológico para datos abiertos enlazados.

Crónica del curso de verano DH@Madrid Summer School 2018

Bajo el título Aplicaciones y posibilidades del procesamiento del Lenguaje Natural para la Investigación en Humanidades por quinto año consecutivo, DH@Madrid Summer School 2018 ha tenido lugar en la UNED en su emblemático salón de actos Andrés Bello.

Durante los tres días de curso, se ha propuesta una introducción al Procesamiento del Lenguaje Natural centrado en su aplicación a los problemas propios de la investigación en Humanidades Digitales. De esta manera, el curso se ha dirigido a todos aquellos interesados en métodos digitales de investigación aplicados a las humanidades.

Nuevamente en esta oportunidad, los contenidos del curso, han podido seguirse de forma presencial y online, y ya se puede acceder en diferido.

Esta nueva edición del curso de verano ha contado entre otras, con la colaboración de las infraestructuras europeas de investigación CLARIN y DARIAH, así como de distintas redes de humanidades digitales, y ha sido organizado por el LINHD en el marco del proyecto POSTDATA.

DH@Madrid 2018

El lunes comenzó con la bienvenida y la presentación del curso por parte de los directores, Clara I. Martinéz Cantón y Salvador Ros Muñoz.

A continuación, Elena Álvarez Mellado, nos deleitó con su ponencia de “La lengua al microscopio: introducción básica al NLP desde Humanidades”, explicando las posibilidades que permiten las herramientas de la Lingüística computacional, mediante el análisis informático de grandes cantidades de textos. Su ponencia ha comenzado con una comparación entre el tabú que existía en época medieval en relación a la disección de cuerpos humanos para comprender su funcionamiento, y el peso de la tradición médica de Galeno, cuyas teorías estaban basadas principalmente en la observación, pero no se contrastaban. Explicó, además, las tareas básicas de un ordenador a la hora de procesar un texto.

 

La tarde del lunes se cerró con la presentación de Jennifer Edmond, Directora de proyectos estratégicos del Trinity Long Room Hub Arts & Humanities Research Institute, contándonos sobre la infraestructura DARIAH y de las ventajas de crear y compartir una infraestructura común que nos facilite el acceso a redes de trabajo y al conocimiento compartido entre diversos actores. De esta manera, tener una estructura también permite acercarse y ajustarse mejor a estándares como Open Science, incrementa las posibilidades de obtener financiación y promueve la sostenibilidad a lo largo del tiempo de los resultados. Permite además, estar al día de qué se está haciendo en el entorno de tu investigación.

El día martes, comenzó con la charla de Pablo Ruiz Fabo que ha introducido la noción expresión regular (regular expression- regex) y ha mostrado con diversos ejemplos y ejercicios cómo explorar un corpus de textos mediante el uso de regex, aprendiendo a modificar cadenas de texto eficazmente. La exposición teórica estuvo acompañada de ejercicios en donde se aprendieron, entre otras, las diferencias entre los elementos literales y los especiales. Durante su ponencia Pablo ha proporcionado una serie de enlaces donde poder usar las
expresiones regulares en Internet y también unos editores para poder descargarse en los ordenadores.

Mikel Iruskieta, investigador del Grupo IXA de la Universidad el País Vasco, exponía la potencialidad de Python y el lenguaje de programación para extraer o generar corpora textuales y explotarlos, guardando los resultados obtenidos. También, explicaba las tareas de PLN que pueden realizarse con Python, como la extracción de información de textos de distinto tipo, buscar términos en la web y comparar frecuencias, el desarrollo de programas basados en análisis lingüísticos y búsquedas basadas en diccionarios, guardando toda la información obtenida en XML. Asimismo, explicaba para qué podían ser útiles las infraestructuras del procesamiento del lenguaje, como CLARIN-K.

Por su parte, Mª Luisa Díez Platas, Investigadora del proyecto POSTDATA, se centró en la presentación de una herramienta que ha sido desarrollada en el Proyecto POSTDATA para el reconocimiento de entidades nombradas: Hispanic Medieval Tagger (HisMeTag). Constituye una de las tareas más importantes en la extracción de información y consiste en el reconocimiento y la clasificación de nombres de personas, lugares, organizaciones, expresiones numéricas, expresiones temporales, etc.  Su principal novedad es el reconocimiento de entidades nombradas en textos medievales. Pero, además, gracias a HisMeTag ha sido posible la creación de una taxonomía de entidades que puede servir de gran utilidad para los humanistas en su tarea de análisis de los textos.

La tarde del martes finalizó con la ponencia de Elena González-Blanco, investigadora principal del Proyecto POSTDATA y General Manager of Europe en CoverWallet. Elena comenzó con un repaso de lo que son las Humanidades Digitales y la situación actual, con el machine learning y la inteligencia artificial. Comentó que la inteligencia artificial es una etiqueta que engloba muchas cosas: reconocimiento facial o de escritura; máquinas que pueden llevar a cabo razonamientos complejos, como jugar al ajedrez; algoritmos complejos que se resuelven solos; los chatbots y los asistentes virtuales o los medios de transporte que se conducen solos. Son tecnologías diversas que se aplican a diferentes ámbitos, pero que todas tienen un punto en común: la transformación digital. No es la disciplina la que marca la diferencia, sino la tecnología y el tipo de materia sobre la que se aplica.

El último día de curso, comenzó con la charla de Antonio Robles de la UNED y José Manuel Fradejas de la Universidad de Valladolid. Se puso de manifiesto la necesidad de la interdisciplinariedad, uniendo el aspecto informático con el humanístico. En este sentido, el lenguaje R no solo sirve para el análisis de textos sino también para realizar análisis estadísticos y visualizaciones avanzadas. El profesor Fradejas explicó qué es la estilometría y señaló cuales son los libros reveladores en el campo de la estilometría para él. La charla de José Manuel también tuvo una gran parte de práctica para demostrar otras potencialidades del PLN.

A continuación, Gimena del Río, investigadora de CONICET- Argentina, explicó en qué consistía el proyecto Pelagios, y lo que es un gazetteer (una base de datos histórico-geográfica que permite trabajar en sistemas de información geográfica con coordenadas geotópicas). La estructura Pelagios está centrada en datos geográficos como entidades nombradas y trabaja distintas tecnologías: Linked Open Data, Geographical Information Systems, Natural Language Processing, GeoJson, XML-TEI, etc. Además su uso es muy intuitivo, como se pudo comprobar
durante la práctica.

La intervención de Helena Bermúdez Sabel, investigadora del Proyecto POSTDATA, fue de carácter eminentemente práctico. Comenzó, sin embargo, con una breve introducción sobre en qué consiste XML y sus ventajas respecto a otros formatos, al unir un lenguaje humano y uno informático. Así, la finalidad principal del lenguaje XML es la de modelar la estructura inherente y las propiedades semánticas de diversos documentos culturales por medio de hierarquías y estructuras ordenadas. Entre las aplicaciones prácticas de XML para las Humanidades Digitales cabe destacar la identificación de estrofas y versos y una serie de recursos estilísticos.

Para finalizar y a modo de colofón del curso, Enrique Vidal, catedrático de la Universidad Politécnica de Valencia, explica cómo llevar a la práctica en un proyecto de investigación, el Procesamiento del Lenguaje Natural. Hace algunas décadas numerosos investigadores vaticinaron el fin del papel como modelo de transmisión del texto escrito. Sin embargo, este vaticinio no se cumplió y hoy en día existe una buena cantidad de textos escritos a mano que no han sido procesados aún mediante herramienta informática alguna. Las tecnologías que se están desarrollando actualmente para procesar textos manuscritos son cada día más numerosas. Explicó que se han desarrollado tecnologías de interacción persona-máquina que permiten conseguir transcripciones perfectas con un esfuerzo mucho menor del que supondría una transcripción manual por parte de un ser humano. Estos son los llamados métodos interactivo-predictivos de transcripción asistida. Además, se han desarrollado tecnologías de predicción probabilística de texto en imágenes, que se pueden aplicar directamente a las imágenes sin tenerlas explícitamente transcritas.

¡¡¡Muchas gracias a todos por la participación…los esperamos el año que viene!!

 

DH@Madrid Summer School 2018- ¡Matrícula abierta!

La escuela de verano DH@Madrid Summer School 2018 es un evento anual que se organiza cada año desde 2014. En esta oportunidad, presentaremos el curso “Aplicaciones y posibilidades del procesamiento del lenguaje natural para la investigación en humanidades” que se  llevará a cabo entre los días 9 y 11 de julio de 2018 en la UNED. 

Este año, el curso DH@Madrid Summer School se propone ser una introducción al Procesamiento del Lenguaje Natural centrado en su aplicación a los problemas propios de la investigación en Humanidades Digitales. Su meta es introducir a los estudiantes con una formación en humanidades o ciencias sociales el contenido técnico buscando un enfoque claro y diverso, haciéndoles ver las distintas posibilidades a la hora de encarar su trabajo o investigación.

 

 

Contará ademas, con la colaboración de importantes expertos internacionales en Humanidades Digitales, tecnología semántica y procesamiento del lenguaje y estará dirigido a especialistas en Humanidades Digitales, lingüistas, investigadores, profesores, académicos, y estudiantes tanto de máster como de doctorado, preferentemente en disciplinas humanísticas, pero también en disciplinas como informática o ciencias de la información.

 

La escuela está cofinanciada por el proyecto ERC POSTDATA y la Fundación UNED.

                  ¡Entra en la página del curso: http://linhd.es/p/dh-verano-2018/ y no dudes en preguntarnos!

Jornada de Humanidades Digitales en Cuba

El pasado 25 de abril celebramos una jornada especial de humanidades digitales, en conmemoración del día mundial del libro. El evento, realizado en la Facultad de Comunicación de la Universidad de La Habana, fue organizado de forma colaborativa por el Laboratorio de Innovación de Humanidades Digitales (LINHD) de la UNED en España, el proyecto POSTDATA y el Grupo de Investigación HDCI (FCom) en Cuba. Además, contó con la participación del Laboratorio de Humanidades Digitales CAICYT – CONICET de Argentina.

Las actividades se publicaron en el blog del grupo de investigación académica cubano y pudo seguirse en Facebook en el grupo HDCI Cuba,  y en Twitter con los hashtags #vivelashumanidadesdigitales #jornadahumanidadesdigitales_HDCI_POSTDATA y #jornadahumanidadesdigitales_FCom

 

Vídeo de presentación https://youtu.be/to8WpVEQmFk

Nuestro equipo https://canal.uned.es/series/5ad85794b1111f98478b4569

POSTDATA imparte taller sobre datos abiertos enlazados en Würzburg

Durante este mes de abril algunos de los miembros de POSTDATA se desplazaron a Würzburg para impartir un taller sobre datos abiertos enlazados y sobre procesamiento del lenguaje natural.

Este evento fue organizado por el grupo de investigación CLiGS (Computational Literary Genre Stylistics) que está vinculado a la Universität Würzburg.

Del 23 al 25 de abril, los participantes de este taller tuvieron la oportunidad de explorar diferentes recursos de datos abiertos enlazados utilizando el lenguaje de consulta SPARQL. Además, hubo una sesión dedicada al enriquecimiento de corpus literarios con RDFa como mecanismo para traducir la compleja semántica de TEI a la Web. El tercer día estuvo centrado en el aprendizaje de diferentes técnicas de procesamiento del lenguaje natural. Con una marcada vertiente práctica, los miembros de GLiGS tuvieron tiempo para poder aplicar todas las herramientas presentadas.

El taller se clausuró con una charla titulada Linked Open Data: Unchain your corpora en la que se aprovechó para presentar algunos de los resultados obtenidos durante los días precedentes.

Agradecemos una vez más al grupo CLiGS por la excelente acogida que hicieron de nuestros miembros en Würzburg!

 

Presentación de trabajos de Helena Bermúdez Sabel y Sulema Rodríguez Roche

La investigadora e integrante de POSTDATA, Helena Bermúdez Sabel, junto a la profesora de la Universidad de la Habana, Sulema Rodríguez Roche, presentarán el próximo miércoles 11 de abril, sus trabajos de tesis doctoral en la Facultad de Ciencias Económicas y Empresariales de la UNED.

Moderado por la Profesora Clara Martínez Cantón, Helena Bermúdez presentarán su tesis sobre lingüística histórica y acdótica: edición digital del corpus trovadoresco gallego- portugués y, por su parte, Sulema Rodríguez, expondrá su trabajo sobre patrimonio digital cubano: propuesta de catálogo de datos enlazados para la Revista Infantil Pulgarcito, que ha realizado junto a Luis Miguel Rondón.

 

El evento tendrá lugar el 11 de abril en el salón ECO2 de la Facultad de Ciencias Económicas y Empresariales de 11 a 12hs.

 

 

 

Inteligencia Artificial en la Industria 4.0 y la Sociedad: Conferencia de Elena González-Blanco el jueves 5 de abril

El próximo jueves 5 de abril a las 18:00 horas, Elena González Blanco, investigadora principal del Proyecto Postdata y General Manager de Europa en la empresa Coverwallet, dará una conferencia sobre Inteligencia Artificial: “Inteligencia Artificial: La Humanidad Digital”.

En el marco de la inauguración del formato Conversaciones 4.0 de la Cátedra de Industria Conectada de la Universidad Pontificia Comillas, expertos de diversos ámbitos y disciplinas tendrán un diálogo abierto sobre las profundas implicaciones de la Inteligencia Artificial en la sociedad y en la industria.

La conferencia tendrá lugar en el Aula Magna, calle Alberto Aguilera 23, Madrid.

 

Video de la conferencia

Más noticias sobre el evento https://www.efefuturo.com/noticia/robots-inteligencia-artificial/

Conferencia sobre Inteligencia artificial de Elena González Blanco

El martes 27 de febrero de 2018 a las 19:30 horas, Elena González Blanco, investigadora principal del Proyecto ERC Postdata y fundadora del primer Laboratorio de Innovación en Humanidades Digitales en español, dará la conferencia:  “Retos y oportunidades de la Inteligencia artificial hoy: ¿pueden las máquinas pensar como los hombres?”

La conferencia, organizada por Harvard Club of Spain, tendrá lugar en el IE, María de Molina, 4. Madrid

Enlace a la convocatoria de la conferencia

 

 

 

 

Postdata el día Internacional de la mujer y la niña en la ciencia

 

El día 7 de febrero, Elena González Blanco, investigadora principal del Proyecto ERC Postdata, ha participado con otra cuatro mujeres científicas, en el programa de radio emitido  desde el Instituto Imdea Software, para conmemorar el 11 de febrero que ha
sido declarado por Naciones Unidas como el “Día Internacional de la mujer y la niña en la ciencia”  .

 

Enlace al audio del programa

 

 

 

 

Items de portfolio