Crónica del curso de verano DH@Madrid Summer School 2017

Bajo el título Tecnologías semánticas y herramientas lingüísticas para humanidades digitales/Semantic web technologies and language resoruces for digital humanities, por tercer año consecutivo la DH@Madrid Summer School 2017 de la UNED ha sido un hervidero de ideas y conocimientos sobre distintos métodos digitales de investigación aplicados a las Humanidades. Investigadores en Filología y Humanidades Digitales han podido aprender una gran variedad de herramientas tecnológicas con las que poder posicionar sus proyectos de investigación en el centro del actual contexto académico digital.

Los contenidos de este curso que, de nuevo, han podido seguirse de forma presencial y online, y a los que se podrá acceder en diferido, se han centrado en las tecnologías del lenguaje y, fundamentalmente, en las tecnologías semánticas. El curso de verano de Humanidades Digitales 2017 que está avalado por la infraestructura europea de investigación CLARIN, ha sido cofinanciado por uno de los proyectos que desarrolla el LINHD: POSDATA, que precisamente está basado en la aplicación de procedimientos semánticos para crear un modelo único que haga interoperables los datos pertenecientes a las distintas tradiciones poéticas.

Durante los tres días que ha durado el curso, eminentemente práctico, se ha demostrado la aplicación a proyectos de Humanidades de tecnologías como el lenguaje de programación R, especialmente para estudios de estilometría o métodos como las expresiones regulares.

La tarde del lunes se cerró trabajando sobre metadatos y testando el entorno virtual de investigación EVILINHD para la inclusión de esquemas de metadatos y vocabularios controlados. Aparte de las sesiones prácticas, también ha habido espacio para repasar los fundamentos de las Humanidades Digitales y seguir la trayectoria personal de mano de Susan Schreibman en la conferencia plenaria que abrió la mañana del miércoles.

Para todos aquellos que no conocían, o sabían poco acerca de la infraestructura CLARIN, se pudo visualizar su trabajo en la presentación de los proyectos de los centros Clarin-K españoles.

Los métodos y conceptos asociados a Linked Open Data estuvieron presentes a lo largo de todo el curso de verano, pero fue el último día cuando las sesiones se centraron en casos concretos de utilización los datos abiertos y enlazados en las Humanidades.

 

 

DH@Madrid Summer School 2017

La escuela de verano DH@Madrid Summer School 2017 es un evento anual que se organiza cada año desde 2014. Los destinatarios son principalmente humanistas digitales y el propósito de la escuela es enseñarles tecnologías del lenguaje, en general, y tecnologías semánticas, en particular; que podrán utilizar para desarrollar sus proyectos y/o investigaciones.

Este año, la escuela DH@Madrid Summer School se enfoca como una introducción a la aplicación de tecnologías web semánticas y recursos del lenguaje digital. Uno de los objetivos más importantes del evento será concienciar  sobre la infraestructura, las herramientas y los servicios de la infraestructura ERIC Clarin a nuestros alumnos investigadores: investigadores de humanidades digitales de países de habla hispana.

Otro objetivo del evento es involucrar a la comunidad de investigadores en el uso de herramientas e infraestructuras CLARIN. Compartiremos con ellos a los usuarios de la infraestructura CLARIN en nuestro proyecto EVILINHD donde hemos integrado el repositorio LINDAT Clarin. Además de ser un centro español Clarin K, nos daremos la oportunidad de mostrarles otras herramientas que se han desarrollado en otros centros Clarin-K (Analhitza, Contawords).

También queremos compartir nuestra experiencia con participantes de otros países líderes de Clarín, como las iniciativas de Italia y Finlandia o como Argentina, que conoce las herramientas de CLARIN gracias a nuestra conexión con la comunidad española.

Este evento, por tanto, servirá para incorporar la participación de nuevos usuarios en la Red ERIC CLARIN y ampliar la comunidad española en la infraestructura CLARIN. La escuela está cofinanciada por el proyecto ERC POSTDATA y también está vinculado al proyecto Retele (Red de Tecnologías Lingüísticas en Español), que tiene como objetivo reunir y compartir iniciativas, herramientas y proyectos de tecnología lingüística para hispanohablantes.                                                             ¡Entra en la página del curso: http://linhd.es/p/dh-summer-2017-es/ y no dudes en preguntarnos!

Patrocinadores del evento

Últimos días de matrícula para nuestros Títulos Propios  de Humanidades Digitales 

Desde el Laboratorio de Innovación en Humanidades Digitales de la UNED anunciamos que el plazo de matrícula para nuestros Títulos Propios a distancia de Humanidades Digitales termina el próximo día 5 de diciembre.

Quedan pocos días y pocas plazas, por lo que les animamos a registrarse a la mayor brevedad posible. Los cursos comenzarán en enero de 2017. Todos ellos se cursarán íntegramente a distancia, online y en español (aunque están abiertos a estudiantes no hispanohablantes).

Este año ofrecemos los siguientes programas:

HD_hombre_250

Experto Profesional en Humanidades Digitales (3ª edición) 30 créditos, enero-septiembre de 2017

Edicion-Digital_LINHD_250

Experto Profesional en Edición Digital Académica (2ª edición) 30 créditos, enero-septiembre de 2017

estilometria-cervantes_250

Análisis de Textos y Estilometría con R (¡nuevo!) 6 créditos, enero-mayo de 2017

 

Nuestros cursos están guiados de manera personalizada en los que los alumnos trabajan con diferentes modalidades (material textual, gráfico, videos) y en los que, a través de la plataforma del curso pueden ir trabajando con los profesores y dialogando con ellos y sus pares.

Disponemos de descuentos especiales y ayudas al estudio que pueden consultar en las respectivas páginas de los cursos. Quedamos a su disposición para cualquier duda o consulta.

¡Nuestra misión es formar a profesionales con futuro y os esperamos para uniros al reto de conocer las Humanidades Digitales!

Estilometría: un ámbito por descubrir

¿Co-autores de Shakespeare?
Imagen tomada de Wikipedia

Hace unas semanas la prensa, tanto escrita (El Mundo, El cultural, The Guardian, BBC, Efe) como  hablada (RNE Radio 5), se hizo eco de que en la editorial de Universidad de Oxford, en realidad un equipo de investigadores cuyos resultados serán publicados (en 2017) por dicha editorial, han establecido que la trilogía Enrique VI no fue escrita en su totalidad por William Shakespeare (1564-1616), sino que es una obra escrita en colaboración con Christopher Marlowe (1564-1593). La mayoría de las noticias se centraban en los personajes y la historia entorno a ellos y la gran disputa que ha habido desde el siglo XVIII de que era posible que William Shakespeare no hubiera escrito todo lo que se le atribuye. La gran mayoría de esas noticias mencionaban que se había llegado a esa conclusión gracias a la mezcla de dos técnicas de investigación: «old-fashioned scholarship and 21st-century computerised tools to analyse texts». Pero ninguna de las noticias le interesó explicar en qué consistían esas herramientas computacionales; todo lo más, en Radio 5 se dice que se han ayudado de un programa informático que ha localizado «multitud de palabras o expresiones marca de la casa de Marlowe». Eso no es decir mucho, pues ha habido varios investigadores, en el campo de la filología española sin ir más lejos, que ha usado algunos programas informáticos para localizar formas y expresiones para determinar la autoría del llamado Quijote de Avellaneda. En esos trabajos con apoyo informático lo único que se hizo fue buscar una serie de palabras «marca de la casa» del sospechoso en el corpus diacrónico del español, CORDE, que es lo mismo que se hizo, pero sin apoyo informático, en el caso de La tía fingida, es decir, aplicaron la «old-fashioned scholarship», o lo que es lo mismo, algunos de los métodos filológicos normales y largamente probados.

Una de las técnicas modernas, del siglo XXI, más eficientes para tratar de desentrañar la autoría de un texto es la estilometría, es decir, el análisis estadístico del estilo literario (Holmes 1998, 111), pero no ha podido tener gran desarrollo hasta que los ordenadores han tomado un lugar preponderante en todo tipo de estudios, incluso en los «de letras», y no como potentes máquinas de escribir, que es como mucho conciben los ordenadores.

La primera aproximación al problema fue la de T. Mendenhall en 1901 y de la que dio cuenta en «A Mechanical solution of a literary problem». La solución mecánica consistió en contar las letras de cada una de las palabras de las obras de Shakespeare y comparar la longitud de las palabras de las obras atribuidas a Shakespeare con los sospechosos habituales: Edward de Vere (1550-1604), Francis Bacon (1561-1626) y Marlowe.

El procedimiento era muy sencillo: una persona leía una palabra, contaba el número de letras y lo anunciaba en voz alta; otra apretaba el botón adecuado (uno para cada número) en una máquina registradora construida al efecto. Procedieron así a lo largo de dos millones de palabras (400 000 eran de Shakespeare). La conclusión a la que llegaron era que la longitud de palabra más usual en Shakespeare era de cuatro letras, «a thing never met with before» (Mendenhall, 1901: 102).

Este laborioso procedimiento debió de influir para que nadie se ocupara de los problemas de estimoletría, aunque hubo algunos intentos como el de Claude S. Brineger en 1963, que trató de establecer si Mark Twain había escrito o no las diez cartas Snodgrass que se publicaron en el New Orleans Daily Crescent en 1861 bajo la firma de Quintus Curtius Snodgrass.

Pero el gran avance para los estudios de estilometría surgieron a raíz del llamado caso de los Federalist Papers en 1964 a cargo de F. Mostaller y D. L. Wallace. Estos especialistas en estadística pudieron establecer la autoría de los doce Federalist Papers cuya autoría estaba en discusión. Para ello se basaron en la frecuencia de uso de palabras gramaticales, function words, es decir de artículos, conjunciones, preposiciones, pronombres y ciertos adverbios, adjetivos y verbos auxiliares, como discriminadores de estilo, pues dejan una huella indeleble e inconsciente del estilo de cada uno de nosotros y que es inimitable.

Más reciente ha sido el llamado caso Galbraith. Robert Galbraith, un policía militar jubilado y con experiencia en la industria de seguridad, publicó en abril de 2013 la novela policiaca titulada The Cuckoo’s Calling (La llamada del Cuco). Esta novela «was lavishly praised by critics» (Sunday Times, 14.7.13). Pero, según contaba Sunday Times, a uno de sus periodistas le pareció una novela demasiado buena como para ser una obra primeriza y que un autor con la formación que decía tener describiese con sumo detalle la ropa femenina, por lo que decidió solicitar los servicios de Patrick Juola, un profesor de Duquesne University que en el año 2006 presentó un prototipo computerizado de atribución de autoría llamado Java Graphical Authorship Attribution Program (JGAAP), para que averiguara quién podía ser el autor real. La verdad es que tenían un soplo: que Robert Galbraith era un seudónimo de J. K. Rowlins, por lo que pudo partir de una hipótesis que se trató de confirmar.

El procedimiento de Juola fue seleccionar la única novela para adultos escrita por J. K. Rowling, The Casual Vacancy, y otras tres novelas policiacas escritas por mujeres: The St. Zita Society de Ruth Rendell, The Private Patient de P. D. JamesThe Wire in the Blood de Val McDermid, para ver cuál era más similar a Galbraith y realizó cuatro análisis centrados en cuatro variables lingüísticas:

  1. distribución de la longitud de las palabras
  2. uso de las 100 palabras más comunes
  3. distribución de 4-gram (grupos de cuatro letras juntas, pueden ser palabras, parte de una palabra o de dos palabras adyacentes)
  4. distribución de bigramas (qué dos palabras aparecen juntas)

La conclusión a la que llegó es que de los cuatro autores, dos quedaban descartados y que «The only person consistently suggested by every analysis was Rowling, who showed up as the winner or the runner-up in each instance» (Juola). Ante estos datos, el periodista del Sunday Times preguntó a J. K. Rowling y esta confesó que era ella la autora.

En un libro pensado para enseñar el uso de R, un lenguaje de programación estadística, a los estudiantes (y estudiosos) de la literatura, Text Analysis with R for Students of Literature de  M. L. Jockers (2014), me llamó poderosamente la atención el capítulo 11, titulado «Clustering». En él se propone como ejercicio determinar si un texto marcado como anónimo se agruparía de manera natural con algún autor de un grupo de textos firmados por una serie de novelistas irlandeses (o de origen irlandés) de los siglos XVIII-XX. A la vista de que funcionaba con los textos ingleses, pero consciente de los problemas que presentan los programas informáticos creados para trabajar con textos en lengua inglesa (y el de las letras con diacríticos –á, é, í, ó, ú, ü, ñ– es uno de los básicos), quise ver si funcionaba con textos escritos en español. Para ello preparé un pequeño corpus de dieciocho novelas escritas en español durante el siglo XIX o principios del XX (Eduardo Acevedo Díaz [3 textos], Benito Pérez Galdós [8 textos], Juan Valera [3 textos] y José María de Pereda [4 textos]), pero uno de los ficheros se etiquetó como anónimo. Este corpus está constituido por 1 361 448 palabras token y 244 690 palabras tipo y tan solo seleccionando 24 palabras tipo –a, al, como, con, de, del, el, en, la, las, le, lo, los, más, me, no, para, por, que, se, su, un, una e y–, aquellas cuya frecuencia relativa de aparición fuera >= .5, el análisis de agrupación por medio de la medida de la distancia euclidiana los reunió sin error alguno, como puede verse en el dendrograma correspondiente (fig. 1) y situó el texto marcado como anónimo entre las obras de Pérez Galdós, como efectivamente era, pues se trataba del Episodio Nacional Trafalgar.

 

Dendrograma de unas novelas española del XIX-XX

Dendrograma de unas novelas española del XIX-XX

Este pequeño experimento me convenció de que los análisis estilométricos computacionales son una herramienta útil para los estudios de filología, y que los «de letras» debemos hacer el pequeño esfuerzo de aprender a programar. No es necesario dominar las matemáticas que subyacen en estos análisis; hay montañas de frikis (desde nuestro punto de vista de filólogos, ellos dirán que los frikis somos nosotros) que crean paquetes y rutinas en varios lenguajes de programación (los mejores para nuestro trabajo los he encontrado escritos en R y Python) que realizan esos oscuros y complicados cálculos para que nosotros solo nos preocupemos de preparar los materiales, lo más tedioso, pues carecemos de buenas fuentes de textos electrónicos que podamos usar libremente, y que con un poco de habilidad (y enorme paciencia al principio) podamos escribir programitas en los que utilicemos los paquetes creados por los expertos en informática para analizar ciertos problemas de autoría y analizar e interpretar los resultados.

Uno de los problemas de autoría más intrigantes de la literatura española, y que posiblemente nunca tenga solución, es quién fue el autor del Lazarillo de Tormes. Recientemente, la catedrática de la Universidad de Barcelona, Rosa Navarro ha publicado una nueva edición del Lazarillo (Alianza Editorial, 2016) y en su portada consta como autor Alfonso de Valdés (1490-1532). Sin embargo, analizados informáticamente los textos de Alfonso de Valdés y los de otros sospechosos, o algunos posibles autores, como Juan de Valdés (1509-1541), Juan Arce de Otálora (1515/20-1562), Fray Luis de León (1525/28-1591), Diego Hurtado de Mendoza (1503/04-1575) y Francisco Cervantes de Salazar (1513/18-1575), con el mismo programita que utilizamos para averiguar si el fichero marcado como anónimo se asentaba entre las obras de su verdadero autor, hemos podido comprobar que ni de lejos pudo ser Alfonso de Valdés el autor del Lazarillo.

Dendrograma de posibles candidatos a la autoría de Lazarillo

Dendrograma de posibles candidatos a la autoría de Lazarillo

La estilometría, es decir, el estudio o análisis estadístico del estilo de un autor para tratar de establecer la posible autoría de un texto, se ha mostrado válida cuando se han hecho experimentos en los que todos los textos están perfectamente identificados (Fradejas Rueda, «El análisis estilométrico aplicado a la literatura española: las novelas policiacas e históricas»), por lo tanto se pueden usar con confianza en los textos más antiguos. Sin embargo, hay que tener en cuenta que si fallan, es decir, no lograr dar con el autor real, lo más probable es que se deba a que no se le han ofrecido a la máquina los términos de comparación válidos, es decir, textos del auténtico autor. Por otra parte, esos fallos también pueden ser aciertos en el sentido de que pueden servir para desestimar candidatos, como acabamos de hacer con Alfonso de Valdés.

 


José Manuel Fradejas Rueda (@JMFradeRue) es catedrático de Filología Románica en la Universidad de Valladolid donde enseña Lingüística románica y Tecnologías de la información aplicadas a la investigación en lengua española y en la actualidad es el IP del proyecto 7PartidasDigital financiado por el MINECO (FFI2016-75014-P).

Elena González-Blanco imparte esta semana un Seminario de Investigación Humanidades digitales en la Universidad de Castilla la Mancha

El Seminario de  Humanidades Digitales. Introducción a la edición académica digital y al marcado de textos en TEI será impartido por Elena González-Blanco García, directora del Laboratorio en Investigación de Humanidades Digitales, LINHD-UNED.

En la Facultad de Letras de la Universidad de Castilla la Mancha UCLM

En la sala de Grados los días 15-17-22 febrero 2016, de 16-19 h.

Dirigido a estudiantes de máster y grado y a investigadores en Filología interesados en las Humanidades Digitales y en la edición digital de textos. Plazas limitadas.

Metadatos

PROGRAMA DEL SEMINARIO:

Sesión 1. Introducción a las Humanidades Digitales (3 h.)

Sesión 2. Marcado de textos en XML. Introducción al TEI (Text Encoding Initiative) (3 h.)

Sesión 3. Casos prácticos de estudio: proyectos y herramientas. (3 h.)

El objetivo de este seminario es ofrecer una panorámica de los distintos campos de las humanidades digitales: el tratamiento digital y la edición de textos e imágenes y su aplicación en áreas como la literatura y el arte, el uso y diseño de las bases de datos para humanidades, el conocimiento de herramientas digitales para la construcción virtual de proyectos culturales y su desarrollo en la web, así como herramientas para el tratamiento de datos y su visualización.

Todo ello permitirá a los estudiantes complementar su formación y abrir nuevas perspectivas tanto para la investigación académica como para su inserción en el mercado laboral en el que la demanda de formación tecnológica aplicada a las humanidades es creciente.

El Seminario está subvencionado por el Vicerrectorado de Docencia.

Para más información:

INFORMACIÓN Y COORDINACIÓN: Matías Barchino – Reconocimiento de 0,5 ects Máster y Grado. Inscripción Cursos Web.

Sin título-1                             LINHDlogo4image004

 

Workshop: “La edición digital académica: de lo analógico a lo digital”

 

Estamos ultimando detalles del workshop sobre edición digital académica titulado “La edición digital académica: de lo analógico a lo digital” que dictaremos entre los días 14 y 16 de diciembre junto con el equipo de  TextGrid-DARIAH de la Biblioteca de la Universidad de Göttingen. Recordad que para seguir el workshop debéis descargaros el software de TextGrid en: https://textgrid.de/en/download Sin título-1 Puede seguirse en directo o en diferido a través de Canal UNED (previa inscripción). El taller se impartirá íntegramente en inglés.

Lugar: Facultad de Cc. Económicas y Empresariales. Paseo Senda del Rey, 11 de Madrid. Sala Ángel Sáez Torrecilla.

 

Inscripción y matrícula online. Plazas limitadas, precio público 50 euros.
Aquí el program completo
Lunes 14 de diciembre
10.00–10.15 Presentation of the Department of Research & Development of the State and University Library Göttingen (SUB)(Frank Fischer, SUB Göttingen)
10.15–10.30 Presentación del LINHD y sus proyectos(Elena González Blanco, UNED-LINHD/Gimena del Rio Riande, CONICET-LINHD)
10.30–11.30 Intro: “Digital Editing: State of the Art, Challenges, Potentials” + Debate (Martina Kerzel, SUB Göttingen)
11.30–12.00  Pausa
12.00–12.30 “Brief Introduction to DARIAH & TextGrid”(Frank Fischer y Mathias Göbel, SUB Göttingen)
12.30–13.00 “How Do We Measure Success? – Management of Larger Projects”(Inga Buhr y Claudio Leone, SUB Göttingen)
13.00–14.30  Pausa
14.30–16.00 “User Stories, User Requirements, Vol. I”– Network Analysis of Literary Texts (Frank Fischer, SUB Göttingen) – Visualisation of Geospatial-Temporal Data (Mathias Göbel, SUB Göttingen) – Editing Baena’s Songbook with TextGrid (Gimena del Rio Riande, CONICET-LINHD)
Martes 15 de diciembre
10.00–11.30 “Hands-On I: Editing/Annotating of Poems of the Cancionero musical de Palacio” (Mathias Göbel, Frank Fischer, Martina Kerzel, Claudio Leone, Inga Buhr; SUB Göttingen; Gimena del Rio Riande, CONICET-LINHD)
11.30–12.00  Pausa
12.00–13.00 “Hands-On II: Editing/Annotating of Poems of the Cancionero musical de Palacio” (Mathias Göbel, Frank Fischer, Martina Kerzel, Claudio Leone, Inga Buhr; SUB Göttingen; Gimena del Rio Riande, CONICET-LINHD)
13.00–14.30  Pausa
14.30–16.00 14.30–16.00“Hands-On III: Editing/Annotating of Medieval Prose” (Mathias Göbel, Frank Fischer, Martina Kerzel, Claudio Leone, Inga Buhr; SUB Göttingen; Gimena del Rio Riande, CONICET-LINHD)
16.00–16.30  Pausa
16.30–18.00 “Hands-On IV: Editing/Annotating of Medieval Prose”(Mathias Göbel, Frank Fischer, Martina Kerzel, Claudio Leone, Inga Buhr; SUB Göttingen; Gimena del Rio Riande, CONICET-LINHD)
Miércoles 16 de diciembre
10.00–11.30 “Special Issues: Metadata, Images, Licensing, Long-Term Archiving, Standards”(Mathias Göbel, Frank Fischer, Martina Kerzel, Claudio Leone, Inga Buhr; SUB Göttingen)
11.30–12.00  Pausa
12.00–12.30 “Why Humanities Research Needs (International) Digital Infrastructures” (wrap-up debate)

LINHD presenta el workshop: “La edición digital académica: de lo analógico a lo digital”.

Es un placer para el LINHD anunciaros que entre los días 14 y 16 de diciembre el equipo de TextGrid-DARIAH de la Biblioteca de la Universidad de Göttingen nos ofrecerá un workshop sobre edición digital académica titulado “La edición digital académica: de lo analógico a lo digital”.

 

Además de trabajar sobre proDariah1blemas teóricos acerca del proceso de digitalización, marcado, almacenamiento y publicación digital de textos, y de debatir temas de gran interés para el desarrollo actual de las Humanidades Digitales, como las infraestructuras y la preservación a largo plazo, el workshop ofrecerá la oportunidad de trabajar con TextGrid editor y sus herramientas aplicadas a la edición digital de piezas del Cancionero musical de Palacio.

 

TextGrid es un entorno virtual de edición (VRE) y repositorio desarrollado en Alemania por diferentes instituciones y DARIAH, especialmente diseñado para la edición de textos académicos. Se basa en código abierto, lo que permite el libre intercambio de herramientas y datos, y se adapta a las necesidades específicas de distintas disciplinas. TextGrid es utilizado por investigadores de una amplia gama de disciplinas humanísticas como la filología, la lingüística, la historia del arte, y la musicología y permite trabajar en una edición sostenible, en el almacenamiento y la publicación de datos en un entorno probado y seguro. Encontraréis más información aquí: https://textgrid.de/projekt

uni gottingen                                    LINHDlogo5

El workshop se dictará, principalmente, en inglés y podrá tomarse presencialmente o seguirse en vivo o diferido en la web. Es recomendable un conocimiento mínimo sobre edición digital con TEI para aprovechar el trabajo práctico sobre los textos.

 

Tendrá un costo de 50 euros, que cubrirá la matrícula y las comidas y cafés de los tres días. ¡Os invitamos a participar!

Programa

Inscripción: http://www.fundacion.uned.es/actividad/10854

 

 

 

Tratamiento de Textos

Curso Modelado Conceptual para Patrimonio Cultural

El Patrimonio Cultural se ha convertido en un valor en desarrollo y, por extensión, en una actividad generadora de empleo y de iniciativas empresariales en el marco de la rehabilitación, el cuidado, la difusión y la puesta en valor del patrimonio local, creando proyectos sostenibles, imaginativos y productivos.

La Fundación UNED, en colaboración con el Laboratorio de Innovación en Humanidades Digitales (LINHD) y el Instituto de Ciencias de Patrimonio (Incipit) del CSIC, pone al servicio de sus alumnos un Campus, del 19 de octubre de 2015 al 8 de abril de 2016, con diferentes titulaciones en dicha materia de 400 horas lectivas, orientado a la consecución de objetivos de formación y a afrontar los retos futuros de un sector en auge, por tan solo 350 €.

El Patrimonio Cultural es el responsable de dotar de señas de identidad y de memoria histórica a las distintas comunidades. Por ello, necesita de profesionales con una formación integral, al servicio del desarrollo de la idiosincrasia local y de la sostenibilidad de los territorios.

AP1000215

Las labores de gestión de la información en patrimonio cultural requieren que, a veces, las personas sin conocimientos especializados en informática tengan que diseñar estructuras de datos, fichas y otros sistemas de gestión de la información. Este curso tiene como objetivo introducir a estas personas al modelado conceptual y prepararlas para que puedan realizar tareas tales como:

 

– Decidir qué tipos de cosas se deben documentar

– Determinar cómo se describe cada una

– Especificar cómo se relacionan las cosas entre si

 

El curso está dirigido a estudiantes, profesores, profesionales, investigadores y otros especialistas del patrimonio cultural que tengan la necesidad de conceptualizar, registrar, expresar y visualizar información como parte de su trabajo.

El curso es completamente online, y se compone de cinco módulos, que explorarán el lenguaje de modelado ConML (www.conml.org), la confección de bases de datos, y el modelo de referencia abstracto para patrimonio cultural CHARM (www.charminfo.org). Además, los alumnos llevarán a cabo un proyecto individual en torno a un tema relevante.

No se requiere experiencia previa en modelado de información, ni se espera ninguna titulación o curso técnico como requisito de entrada al curso.

Los temas principales que trata el curso son los siguientes.

– Modelado de objetos, clases y relaciones de generalización/especialización, asociación y todo/parte

– Modelado de la subjetividad, temporalidad y vaguedad en patrimonio cultural

– Construcción de modelos particulares para problemas concretos

–  Modelado de entidades tangibles y performativas

–  Modelado de agentes, valoraciones y representaciones

– Análisis y extensión de modelos existentes

– Construcción de bases de datos a partir de modelos

LINHDlogo5          CSIC              incipit               

Podrás estudiar desde tu casa y a tu ritmo. Sin perder el tiempo en desplazamientos y compatible con tu actividad laboral con la modalidad 100% online.

Te ofrecemos un profesorado a tu disposición desde el primer día de curso.

Profesores

  • César González-Pérez, Incipit CSIC
  • Patricia Martín-Rodilla, Incipit CSIC
  • Paloma Centenera Centenera, Universidad Pontificia de Salamanca, LINHD

Las plazas son limitadas, así que si estás interesado en el Patrimonio Cultural esta es tu ocasión.

funedlogooriginal_mini3

Matrícula e información adicional:

http://www.fundacion.uned.es/actividad/idactividad/10306

Seminario sobre creación y gestión de una biblioteca digital: Sapienza Digital Library

Seminario: Creación, organización y gestión de una biblioteca digital: Sapienza Digital Library (SDL)

 

Este seminario versará sobre la construcción de una biblioteca digital tomando como caso de estudio el de la creación de la Biblioteca Digital de la Universidad de la Sapienza. Se abordarán conceptos como los problemas que plantea la creación de una bilbioteca digital, la estructura de sus colecciones, la introducción y el tratamiento de los metadatos y la gestión global de la misma. El seminario será impartido por Gianfranco Crupi, profesor de la Universidad de la Sapienza y director, además, del DigiLab, laboratorio de digitalización de dicha universidad.

Se podrá asistir presencialmente de forma gratuita o bien completamente online, pues la sesión será retransmitida en streaming en directo y diferido a través de CanalUNED. Este seminario-taller consta de 4 horas, y tendrá lugar el día 26 de mayo de 16.00 a 20.00 horas en la sala Saenz Torrecilla de la Facultad de Ciencias Económicas y Empresariales de la UNED (Paseo de la Senda del Rey, Madrid).

Programa

16:00-17:00 Introducción sobre el concepto de biblioteca digital

17:00-18:00 El caso de la Sapienza Digital Library

18:30-19:30 La estructura de colecciones y metadatos vista desde el back-office

19:30-20:00 Dudas y consultas

El curso será presencial y virtual y podrá visualizarse en directo y en diferido. Todos aquellos que deseen seguirlo virtualmente u obtener certificado de asistencia deberán matricularse en el mismo a través del siguiente enlace y presentar una breve memoria (2 páginas) a linhduned@gmail.com.

Los alumnos del Experto Profesional en Humanidades Digitales de la UNED tendrán esta actividad incluida dentro del programa del curso.

Ponente: Gianfranco Crupi, Profesor de la Università la Sapienza, Roma y directivo de Digilab, Laboratorio de Digitalización de la Sapienza.

Researcher in Italian Literature (L-FIL-LET/10), has directed the “Centro interdipartimentale di servizi per gli studi filologici, linguistici e letterari Biblioteca “Angelo Monteverdi” at the University La Sapienza. His research activities and his specific linguistic and literary skills concerning in particular: the Renaissance culture (with particular attention to the tradition of vernacular translations of classical Greek and Latin); the sources of the historical tradition of Italian literature; the bibliographical tools of Italian studies. It also has specific expertise in the librarianship disciplines, gained through a “Masters degree in management and library management” and specialized courses in Italy and abroad, particularly relating to issues of digital libraries and knowledge management. He is part of: Council of Scientific-Educational Consortium ICoN Italian Culture on the Net; College PhD in “Scienze librarie e documentarie” (La Sapienza University); the Scientific Committee of “Master in library management and direction” at the Catholic University of Sacred Heart of Milan; the scientific Committee of the CI-BIT “Italian Inter-University Centre Italian Telematics Library”; the study Group on metadata standards and applications in cultural heritage, at the Central Institute for the Union Catalogue (ICCU) of the Ministry for Arts and Culture. He is co-director of the journal JLIS and member of the Scientific Committee of the journal Digitalia. He directed the digital library “Biblioteca Italiana” and he is on the scientific board of Digilab. Centro interdipartimentale di ricerca e servizi (La Sapienza).

 

Enlace a la retransmisión en  canaluned

 

Organiza: LINHD, en colaboración con el Proyecto de investigación del MINECO FFI2014-57961-R y la Fundación UNED

     funedlogooriginal_mini3

 

Lugar y fecha: 26 de mayo de 2015

Facultad de Ciencias Económicas y Empresariales de la UNED, Sala Sáenz Torrecilla

c/ Senda del Rey, 7, 28040 Madrid