El proyecto POSTDATA ha nacido para crear un puente digital

POSTDATA es un proyecto financiado de ERC Starting Grants de investigación en humanidades digitales que busca comparar las distintas tradiciones poéticas utilizando la tecnología de la web semántica.

El proyecto POSTDATA “Poetry Standardization and Linked Open Data”, dirigido por Elena González-Blanco García y Salvador Ros Muñoz, es un proyecto del Consejo Europeo de Investigación (European Research Council) de más de un millón de euros con una duración de cinco años (inicio mayo 2016) en los ámbitos de la Ciencia y las Humanidades digitales.

El proyecto se ha convertido en líder de un programa pionero que suma a la Filología investigadores del ámbito de la documentación, la informática, la lingüística computacional y la tecnología de la web semántica y  los datos. El proyecto está integrado en el Laboratorio de Innovación en Humanidades Digitales de la UNED (LINHD), centro pionero en España y en español en este campo.

EL proyecto:

La necesidad de estandarización viene de la mano de la importancia de intercambiar conocimiento y fomentar el entendimiento entre los diferentes campos. Las disciplinas científicas establecieron de una forma temprana protocolos y lenguas para realizar ese trasvase de información, creando unos estándares que fueron rápidamente adquiridos y adaptados para resolver sus problemáticas específicas. Las áreas de humanidades y la cultura han seguido, sin embargo, un camino independiente en el que la creatividad y la tradición juegan un papel esencial. La literatura, y especialmente la poesía, constituyen un claro reflejo de esta idiosincrasia. Desde el punto de vista filológico, no hay un sistema uniforme de analizar, clasificar o estudiar las diferentes manifestaciones poéticas, y la divergencia de teorías es aún mayor cuando se comparan diferentes escuelas poéticas correspondientes a distintas lenguas y períodos. El proyecto POSTDATA ha nacido para crear ese puente digital entre los acervos culturales tradicionales y el mundo creciente de los datos. El proyecto se centra en el análisis, clasificación y publicación de la poesía aplicando metodologías de análisis propias de las Humanidades Digitales, como la codificación en XML-TEI, para buscar la estandarización. Los problemas de interoperabilidad entre las diferentes colecciones poéticas se resuelven utilizando tecnologías de la web semántica para enlazar y publicar conjuntos de datos literarios de forma estructurada en la nube de datos enlazados.

La ventaja de convertir la poesía en datos disponibles en línea legibles para máquina es triple: en primer lugar, la comunidad académica tendrá una plataforma digital accesible para trabajar con corpora poéticos, contribuyendo al enriquecimiento de los propios textos; segundo, esta forma de codificar y estandarizar la información poética, será una garantía de preservación para poemas conservados solamente en libros impresos, o incluso transmitidos oralmente; y tercero, los conjuntos de datos y los corpora estarán disponibles en acceso abierto para su uso con otras finalidades, como la educación, la difusión cultural o el entretenimiento.

Para lograr este fin, se ha creado un laboratorio de poesía dentro de la plataforma que permite a los usuarios aplicar las últimas tecnologías del lenguaje y de la lingüística computacional para analizar los datos poéticos. Algunas de estas herramientas incluyen un analizador métrico que detecta la estructura silábica de las estrofas y los patrones acentuales, el reconocimiento de entidades nombradas para extraer lugares, fechas y personas mencionadas, la combinación de lematizadores y parsers para identificar las estructuras sintácticas con propósitos poéticos y el análisis de sentimiento para descubrir emociones y sentimientos en los poemas. La combinación de todos estos procesos en el mismo entorno mejorará y facilitará el análisis a los investigadores, generando nuevas aplicaciones, como la detección automática del género poético o el análisis de figuras retóricas y estilísticas. .

Uno de los objetivos del proyecto es proporcionar a la comunidad científica de poesía los medios para que puedan publicar los resultados de su investigación como datos abiertos enlazados (LOD) y de esta manera, poder explotar las ventajas que ofrece este tipo de recursos, propios de la web semántica (la publicación de datos que puedan ser procesados por maquinas inteligentes).   

Siguiendo este objetivo, el proyecto ha diseñado un modelo de datos que contiene los conceptos necesarios para poder desarrollar investigación en poesía europea. Al ser esta una tarea muy ambiciosa (abarcar todas las lenguas, periodos, etc de la poesía europea), es necesaria la colaboración de investigadores de todas las tradiciones poéticas de Europa para que validen nuestro trabajo.

Con este fin el proyecto ha desarrollado un formulario que, a través de la inserción de datos resultantes del análisis de los expertos, comprueba que el modelo de postdata no tenga ninguna laguna conceptual.

Enlace al formulario http://postdata-model-validation.linhd.es/

Gracias a este proceso de validación de nuestro trabajo, podremos poner a disposición de la comunidad investigadora en poesía, un modelo ontológico para datos abiertos enlazados.

Crónica del curso de verano DH@Madrid Summer School 2018

Bajo el título Aplicaciones y posibilidades del procesamiento del Lenguaje Natural para la Investigación en Humanidades por quinto año consecutivo, DH@Madrid Summer School 2018 ha tenido lugar en la UNED en su emblemático salón de actos Andrés Bello.

Durante los tres días de curso, se ha propuesta una introducción al Procesamiento del Lenguaje Natural centrado en su aplicación a los problemas propios de la investigación en Humanidades Digitales. De esta manera, el curso se ha dirigido a todos aquellos interesados en métodos digitales de investigación aplicados a las humanidades.

Nuevamente en esta oportunidad, los contenidos del curso, han podido seguirse de forma presencial y online, y ya se puede acceder en diferido.

Esta nueva edición del curso de verano ha contado entre otras, con la colaboración de las infraestructuras europeas de investigación CLARIN y DARIAH, así como de distintas redes de humanidades digitales, y ha sido organizado por el LINHD en el marco del proyecto POSTDATA.

DH@Madrid 2018

El lunes comenzó con la bienvenida y la presentación del curso por parte de los directores, Clara I. Martinéz Cantón y Salvador Ros Muñoz.

A continuación, Elena Álvarez Mellado, nos deleitó con su ponencia de “La lengua al microscopio: introducción básica al NLP desde Humanidades”, explicando las posibilidades que permiten las herramientas de la Lingüística computacional, mediante el análisis informático de grandes cantidades de textos. Su ponencia ha comenzado con una comparación entre el tabú que existía en época medieval en relación a la disección de cuerpos humanos para comprender su funcionamiento, y el peso de la tradición médica de Galeno, cuyas teorías estaban basadas principalmente en la observación, pero no se contrastaban. Explicó, además, las tareas básicas de un ordenador a la hora de procesar un texto.

 

La tarde del lunes se cerró con la presentación de Jennifer Edmond, Directora de proyectos estratégicos del Trinity Long Room Hub Arts & Humanities Research Institute, contándonos sobre la infraestructura DARIAH y de las ventajas de crear y compartir una infraestructura común que nos facilite el acceso a redes de trabajo y al conocimiento compartido entre diversos actores. De esta manera, tener una estructura también permite acercarse y ajustarse mejor a estándares como Open Science, incrementa las posibilidades de obtener financiación y promueve la sostenibilidad a lo largo del tiempo de los resultados. Permite además, estar al día de qué se está haciendo en el entorno de tu investigación.

El día martes, comenzó con la charla de Pablo Ruiz Fabo que ha introducido la noción expresión regular (regular expression- regex) y ha mostrado con diversos ejemplos y ejercicios cómo explorar un corpus de textos mediante el uso de regex, aprendiendo a modificar cadenas de texto eficazmente. La exposición teórica estuvo acompañada de ejercicios en donde se aprendieron, entre otras, las diferencias entre los elementos literales y los especiales. Durante su ponencia Pablo ha proporcionado una serie de enlaces donde poder usar las
expresiones regulares en Internet y también unos editores para poder descargarse en los ordenadores.

Mikel Iruskieta, investigador del Grupo IXA de la Universidad el País Vasco, exponía la potencialidad de Python y el lenguaje de programación para extraer o generar corpora textuales y explotarlos, guardando los resultados obtenidos. También, explicaba las tareas de PLN que pueden realizarse con Python, como la extracción de información de textos de distinto tipo, buscar términos en la web y comparar frecuencias, el desarrollo de programas basados en análisis lingüísticos y búsquedas basadas en diccionarios, guardando toda la información obtenida en XML. Asimismo, explicaba para qué podían ser útiles las infraestructuras del procesamiento del lenguaje, como CLARIN-K.

Por su parte, Mª Luisa Díez Platas, Investigadora del proyecto POSTDATA, se centró en la presentación de una herramienta que ha sido desarrollada en el Proyecto POSTDATA para el reconocimiento de entidades nombradas: Hispanic Medieval Tagger (HisMeTag). Constituye una de las tareas más importantes en la extracción de información y consiste en el reconocimiento y la clasificación de nombres de personas, lugares, organizaciones, expresiones numéricas, expresiones temporales, etc.  Su principal novedad es el reconocimiento de entidades nombradas en textos medievales. Pero, además, gracias a HisMeTag ha sido posible la creación de una taxonomía de entidades que puede servir de gran utilidad para los humanistas en su tarea de análisis de los textos.

La tarde del martes finalizó con la ponencia de Elena González-Blanco, investigadora principal del Proyecto POSTDATA y General Manager of Europe en CoverWallet. Elena comenzó con un repaso de lo que son las Humanidades Digitales y la situación actual, con el machine learning y la inteligencia artificial. Comentó que la inteligencia artificial es una etiqueta que engloba muchas cosas: reconocimiento facial o de escritura; máquinas que pueden llevar a cabo razonamientos complejos, como jugar al ajedrez; algoritmos complejos que se resuelven solos; los chatbots y los asistentes virtuales o los medios de transporte que se conducen solos. Son tecnologías diversas que se aplican a diferentes ámbitos, pero que todas tienen un punto en común: la transformación digital. No es la disciplina la que marca la diferencia, sino la tecnología y el tipo de materia sobre la que se aplica.

El último día de curso, comenzó con la charla de Antonio Robles de la UNED y José Manuel Fradejas de la Universidad de Valladolid. Se puso de manifiesto la necesidad de la interdisciplinariedad, uniendo el aspecto informático con el humanístico. En este sentido, el lenguaje R no solo sirve para el análisis de textos sino también para realizar análisis estadísticos y visualizaciones avanzadas. El profesor Fradejas explicó qué es la estilometría y señaló cuales son los libros reveladores en el campo de la estilometría para él. La charla de José Manuel también tuvo una gran parte de práctica para demostrar otras potencialidades del PLN.

A continuación, Gimena del Río, investigadora de CONICET- Argentina, explicó en qué consistía el proyecto Pelagios, y lo que es un gazetteer (una base de datos histórico-geográfica que permite trabajar en sistemas de información geográfica con coordenadas geotópicas). La estructura Pelagios está centrada en datos geográficos como entidades nombradas y trabaja distintas tecnologías: Linked Open Data, Geographical Information Systems, Natural Language Processing, GeoJson, XML-TEI, etc. Además su uso es muy intuitivo, como se pudo comprobar
durante la práctica.

La intervención de Helena Bermúdez Sabel, investigadora del Proyecto POSTDATA, fue de carácter eminentemente práctico. Comenzó, sin embargo, con una breve introducción sobre en qué consiste XML y sus ventajas respecto a otros formatos, al unir un lenguaje humano y uno informático. Así, la finalidad principal del lenguaje XML es la de modelar la estructura inherente y las propiedades semánticas de diversos documentos culturales por medio de hierarquías y estructuras ordenadas. Entre las aplicaciones prácticas de XML para las Humanidades Digitales cabe destacar la identificación de estrofas y versos y una serie de recursos estilísticos.

Para finalizar y a modo de colofón del curso, Enrique Vidal, catedrático de la Universidad Politécnica de Valencia, explica cómo llevar a la práctica en un proyecto de investigación, el Procesamiento del Lenguaje Natural. Hace algunas décadas numerosos investigadores vaticinaron el fin del papel como modelo de transmisión del texto escrito. Sin embargo, este vaticinio no se cumplió y hoy en día existe una buena cantidad de textos escritos a mano que no han sido procesados aún mediante herramienta informática alguna. Las tecnologías que se están desarrollando actualmente para procesar textos manuscritos son cada día más numerosas. Explicó que se han desarrollado tecnologías de interacción persona-máquina que permiten conseguir transcripciones perfectas con un esfuerzo mucho menor del que supondría una transcripción manual por parte de un ser humano. Estos son los llamados métodos interactivo-predictivos de transcripción asistida. Además, se han desarrollado tecnologías de predicción probabilística de texto en imágenes, que se pueden aplicar directamente a las imágenes sin tenerlas explícitamente transcritas.

¡¡¡Muchas gracias a todos por la participación…los esperamos el año que viene!!

 

Invitación a participar de la encuesta sobre Infraestructuras Digitales

Estimados investigadores e investigadoras relacionados con las Humanidades Digitales. Os queremos informar de dos eventos de interés para la comunidad de Humanidades Digitales.

Por una parte, informaros que estamos organizando para el próximo 30 de octubre de 2018, un Workshop conjuntamente con DARIAH y DESIR que se celebrará en la Universidad Nacional de Educación a Distancia. Esperamos contar del Ministerio de Ciencia, Innovación y Universidades y de representantes de CLARIN. Para finalizar se realizará una reunión plenaria en la que nos gustaría que participaran todas aquellas personas e instituciones relacionadas con las humanidades digitales en España, para lo cual esperamos contar con vuestra presencia e intervenciones. El objetivo es discutir las oportunidades de colaboración en el tema de las infraestructuras para nuestros proyectos, las contribuciones de DARIAH en este sentido y CLARIN y buscar un consenso en relación a la estrategia de incorporación de España en DARIAH y CLARIN.

Por otro lado, como parte del trabajo que nos gustaría presentar en este workshop, os invitamos, a completar un formulario en línea sobre las HD y sus infraestructuras. Mediante este formulario identificaremos, gracias a una herramienta metodológica que se ha desarrollado, las infraestructuras HD en uso en España. Esta herramienta tiene el objetivo de realizar un mapeo de la situación española referente a las infraestructuras digitales en HD, así como de incentivar la colaboración estratégica en los proyectos que emprendemos y enfocar el acceso y uso de estas a las necesidades específicas, en beneficio de los proyectos de los integrantes de la futura red. Los resultados de la aplicación de esta herramienta metodológica serán presentados en el workshop de DARIAH, el próximo mes de octubre.

 

 

DH@Madrid Summer School 2018- ¡Matrícula abierta!

La escuela de verano DH@Madrid Summer School 2018 es un evento anual que se organiza cada año desde 2014. En esta oportunidad, presentaremos el curso “Aplicaciones y posibilidades del procesamiento del lenguaje natural para la investigación en humanidades” que se  llevará a cabo entre los días 9 y 11 de julio de 2018 en la UNED. 

Este año, el curso DH@Madrid Summer School se propone ser una introducción al Procesamiento del Lenguaje Natural centrado en su aplicación a los problemas propios de la investigación en Humanidades Digitales. Su meta es introducir a los estudiantes con una formación en humanidades o ciencias sociales el contenido técnico buscando un enfoque claro y diverso, haciéndoles ver las distintas posibilidades a la hora de encarar su trabajo o investigación.

 

 

Contará ademas, con la colaboración de importantes expertos internacionales en Humanidades Digitales, tecnología semántica y procesamiento del lenguaje y estará dirigido a especialistas en Humanidades Digitales, lingüistas, investigadores, profesores, académicos, y estudiantes tanto de máster como de doctorado, preferentemente en disciplinas humanísticas, pero también en disciplinas como informática o ciencias de la información.

 

La escuela está cofinanciada por el proyecto ERC POSTDATA y la Fundación UNED.

                  ¡Entra en la página del curso: http://linhd.es/p/dh-verano-2018/ y no dudes en preguntarnos!

Jornada de Humanidades Digitales en Cuba

El pasado 25 de abril celebramos una jornada especial de humanidades digitales, en conmemoración del día mundial del libro. El evento, realizado en la Facultad de Comunicación de la Universidad de La Habana, fue organizado de forma colaborativa por el Laboratorio de Innovación de Humanidades Digitales (LINHD) de la UNED en España, el proyecto POSTDATA y el Grupo de Investigación HDCI (FCom) en Cuba. Además, contó con la participación del Laboratorio de Humanidades Digitales CAICYT – CONICET de Argentina.

Las actividades se publicaron en el blog del grupo de investigación académica cubano y pudo seguirse en Facebook en el grupo HDCI Cuba,  y en Twitter con los hashtags #vivelashumanidadesdigitales #jornadahumanidadesdigitales_HDCI_POSTDATA y #jornadahumanidadesdigitales_FCom

 

Vídeo de presentación https://youtu.be/to8WpVEQmFk

Nuestro equipo https://canal.uned.es/series/5ad85794b1111f98478b4569

Presentación en jornada sobre estilometría y Siglo de Oro en Paris IV Sorbonne

El viernes 6 de abril, POSTADATA participó en el seminario “Estilometría y Siglo de Oro: El giro computacional en el estudio de textos áureos”. El evento fue organizado por Marie-Églantine Lescasse y la Profesora Mercedes Blanco del grupo LEMH-CLEA en la Universidad Paris IV Sorbonne. Los temas del seminario fueron la estilometría y la estilística computacional.

Pablo Ruiz presentó trabajo que hemos realizado en el equipo de POSTDATA sobre el análisis automático de patrones métricos y la detección automática del encabalgamiento, aplicados a corpus amplios de sonetos del Siglo de Oro y períodos posteriores, cubriendo unos 10.000 sonetos. La presentación está disponible en zenodo.

También fue la ocasión de escuchar las presentaciones de Laura Hernández Lorenzo, de la Universidad de Sevilla y José Calvo Tello de la Universidad de Würzburg, y participar en un interesante debate.

¡Gracias CLEA-LEMH por esta jornada!

El programa fue el siguiente:

 

 

Presentación de trabajos de Helena Bermúdez Sabel y Sulema Rodríguez Roche

La investigadora e integrante de POSTDATA, Helena Bermúdez Sabel, junto a la profesora de la Universidad de la Habana, Sulema Rodríguez Roche, presentarán el próximo miércoles 11 de abril, sus trabajos de tesis doctoral en la Facultad de Ciencias Económicas y Empresariales de la UNED.

Moderado por la Profesora Clara Martínez Cantón, Helena Bermúdez presentarán su tesis sobre lingüística histórica y acdótica: edición digital del corpus trovadoresco gallego- portugués y, por su parte, Sulema Rodríguez, expondrá su trabajo sobre patrimonio digital cubano: propuesta de catálogo de datos enlazados para la Revista Infantil Pulgarcito, que ha realizado junto a Luis Miguel Rondón.

 

El evento tendrá lugar el 11 de abril en el salón ECO2 de la Facultad de Ciencias Económicas y Empresariales de 11 a 12hs.

 

 

 

Invitación a participar de la encuesta sobre Humanidades Digitales

La transformación digital plantea desafíos para el panorama de la investigación de las artes y las humanidades en todo el mundo. DARIAH (Infraestructura de Investigación Digital en Artes y Humanidades) es una red europea (ERIC- European Research Infrastructure Consortium) para mejorar y desarrollar la investigación digital de humanidades en Europa.

DESIR es un proyecto financiado por la Comisión Europea que se propone fortalecer la sostenibilidad de DARIAH y establecerlo firmemente como un líder a largo plazo y socio dentro de las comunidades de artes y humanidades. La UNED participa activamente como socio del proyecto a través de su Laboratorio de Innovación en Humanidades Digitales (LINHD)

El proyecto ha desarrollado recientemente una encuesta para aquellos usuarios o potenciales usuarios de las humanidades digitales. Los resultados permitirán evaluar la confianza actual en DARIAH y llevar a la propuesta de estrategias y acciones que aumenten la confianza en los servicios e infraestructuras de la red.

 

Enlace para completar el cuestionario:

https://surveys.fcsh.unl.pt/index.php/995839?lang=en

 

 

POSTDATA presenta el corpus DISCO en Colonia (DHd 2018)

La semana pasada el proyecto POSTDATA estuvo en Colonia en DHd 2018, el congreso anual de Digital Humanities im deutschprachigen Raum (la asociación alemana de DH). El congreso fue organizado por el Cologne Center for eHumanities y Universität zu Köln.

Presentamos nuestro corpus DISCO (Diachronic Spanish Sonnet Corpus). El corpus contiene más de 4,000 sonetos de más de 1,000 authors, tanto europeos como americanos, incluyendo autores canónicos y no canónicos, de entre los siglos XV y XIX. El corpus se presenta en formato TEI con anotaciones en RDFa. Los autores están anotados con su identificador de VIAF. También se ofrecen anotaciones literarias (métrica y encabalgamiento). El corpus es una colaboración con José Calvo (del grupo CLiGs de Universität Würzburg), y está disponible en GitHub: https://github.com/postdataproject/disco

El poster puede verse en zenodo.

¡Gracias DHd!

Charla de José Manuel Fradejas Rueda: Estilometría, o lo que los números pueden contarnos de los textos

 

El martes 12 de diciembre, José Manuel Fradejas Rueda(Universidad de Valladolid) dará una charla titulada

“Estilometría, o lo que los números pueden contarnos de los textos”

El evento tendrá lugar el 12 de diciembre a las 10:15 en la Sala de juntas de la Facultad de Psicología de la UNED (Juan del Rosal, 10, Madrid).

José Manuel Fradejas es catedrático de Filología Románica en la Universidad de Valladolid. Sus líneas de investigación actuales comprenden la crítica textual, la lingüística histórica, la bibliografía, la Edición crítica de las Siete Partidas, la estilometría y el procesamiento de lenguaje natural. Ha editado textos castellanos, catalanes y portugueses de la Edad Media.

[Mapa] para el lugar del evento.


Resumen de la charla

La estilometría es el análisis estadístico del estilo literario. Lo que hacemos es reducir los textos a números y ver qué nos pueden contar que no nos cuentan tan solo las palabras. Es algo que los “científicos” han estado haciendo desde finales del siglo XIX. Desde entonces hasta ahora una sido un territorio explorado únicamente por los expertos en estadística. En esta comunicación mostraré que uno “de letras” puede hacerlo gracias a un lenguaje de programación llamado R y un montoncito de librerías que otros han programado y no solo puede hacerlo con textos del siglo XX y XXI, sino que puede utilizar los números para averiguar cosas sobre textos tan antiguos como las obras de Alfonso X, Ayala o la Celestina.