¿Cómo visitar los museos de todo el mundo sin movernos de casa? Con Google Art Project

¿Qué es Google Art Project? Se trata de una muestra online de más de 40.000 obras de artistas de todo el mundo. De las cuales, muchas están en formato gigapíxel, en una altísima resolución. La plataforma de momento reúne organizaciones culturales y facilita la visita desde casa a las salas de museos de todo el mundo mediante paseos virtuales, facilitando el acceso a la cultura y al arte. Es un ambicioso proyecto, muy innovador, y del que forman parte numerosos museos e instituciones españolas. ¿Nos vamos de museos?

Con Google Art Project el usuario puede navegar actualmente entre obras de artistas de todo el mundo, descubrir obras en calidad gigapíxel, museos con la vista de Street View y con imágenes como la de El grito de Edvard Munch o las reliquias ancestrales de China o Japón.

Esta muestra online recoge pintura, arqueología, antropología, escultura, artes decorativas… España comenzó en 2010 a participar en este proyecto de digitalización en alta resolución con obras del Museo del Prado como El jardín de las delicias de El Bosco. Ahora se pueden contemplar en alta resolución piezas como La Dama de Elche.

Las obras seleccionadas son referente de las colecciones y pinturas, son claves en la historia del arte español y universal: El entierro de la Sardina de Francisco de Goya. Esta célebre pintura de género del maestro evoca las fiestas que celebraban los madrileños para despedir los carnavales la víspera del miércoles de ceniza, con el que comienza el tiempo de Cuaresma. Imágenes realizadas con una resolución de 7.000 millones de píxeles que permiten examinar al detalle las obras.

Muchos museos españoles son ya los que se han incorporado a la plataforma. Google-art-project

La Academia, Museo Arqueológico Nacional, Museo Casa Cervantes de Valladolid, Museo de América, Museo Nacional de Arqueología Subacuática, Museo Nacional de Cerámica y Artes Suntuarias González Martí de Valencia y Museo Sefardí.

Google Art Project es el resultado de unir la tecnología y la cultura y ponerla a disposición de todo el mundo. Esperamos que más museos e instituciones españolas confíen en el potencial que Internet y la tecnología tienen para llevar la cultura y el arte hasta audiencias globales.

Es un recorrido interactivo por los museos más importantes del mundo y por las obras fundamentales de sus colecciones artísticas. De muchas de las obras es posible conocer su ficha técnica y un comentario sobre las mismas. Numerosas explicaciones de académicos y de los profesionales de la Corporación descubren detalles y aspectos de las obras de arte. La visita virtual es una guía que facilita el libre acceso y el conocimiento de estas instituciones y su rico patrimonio.

Una excelente ocasión para conocer estas riquezas artísticas sin salir de casa. Aunque yo sinceramente, que prefiero el encanto del directo, reconozco la ventaja de este proyecto, sobre todo para los que no podamos viajar tanto como nos gustaría, nos da la posibilidad de admirar estas impresionantes colecciones. Así que os dejo el enlace de Google Art Project y a disfrutar de la visita.

Además la última novedad una función que te permite saber si tienes un doble en alguna obra de arte, “Art Selfie”. Es una herramienta basada en la inteligencia artificial que busca automáticamente similitudes de los rasgos faciales de una persona entre los cuadros más importantes.

Así que descubre ¿Qué obra de arte eres? Google Art Project

¿Los museos deberían adaptase a las nuevas tecnologías? ¿Te gusta esta iniciativa?

Autor: Rosa Sebastià

@rosasebastia

 

iOS 12 nueva actualización: instalación y dispositivos compatibles

¿Cuándo está disponible iOS 12?

¡Ya está aquí la primera versión de iOS 12! El pasado miércoles 12, entre otras presentaciones, se enseñó a todos los públicos el mejor sistema operativo para iPhone, iPad y iPod Touch, jamás creado por Apple. Desde luego, que no dirás que no han sabido escoger bien el día del mes, jaja.

En este acto se anunció que la fecha de lanzamiento es el lunes 17 de septiembre de 2018. Aquí todos tendremos disponible la nueva actualización de iOS. ¡Por fin se acabaron las versiones beta!

 

Hacer una copia de seguridad para más tranquilidad

Para evitar un mal rato o disgustos siempre haz una copia de seguridad de tu iPhone o iPad antes de la instalación.

Tienes dos opciones. Una usando iTunes conectando tu dispositivo a tu Mac u otra directamente desde el dispositivo para hacerla en iCloud.

En este vídeo puedes ver cómo se puede hacer la copia usando iTunes. En tu Mac puedes elegir entre guardarlo en iCloud o en el disco duro.

La mejor Copia de Seguridad en iTunes con Mac

 

O aquí tienes la segunda forma de hacerlo, por ejemplo, en un iPhone utilizando iCloud y habilitando esta opción:

La mejor Copia de Seguridad en iCloud para iPhone iPad

 

¿Cómo instalar iOS 12?

El proceso es sencillo. Ve a Ajustes, luego a General, a continuación, pulsa en Actualización de software y finalmente te aparecerá para instalarlo. En el siguiente vídeo puedes ver el proceso súper rápido.

Tutorial completo para instalar iOS 12 paso a paso desde cero

 

¡Cuidado! Cuando vayas a actualizarlo, recuerda estas dos cosas muy importantes:

◎ Ten a mano el cargador por si te dice que no tienes suficiente nivel de batería.
◎ Si esperas una llamada o mensaje urgente, puedes descargar la actualización, pero no la instales, ya que durante unos minutos estará apagado el dispositivo. Serán pocos o muchos minutos, según el modelo.

¿Merece la pena invertir tiempo en instalarlo?

Un ¡Sí! rotundo. Sobre todo, vas a tener una mejor usabilidad, y una mayor seguridad en tu dispositivo y aplicaciones. Por ejemplo, entre otras novedades, cuando tu app favorita accede a un servidor que está en internet ahora con iOS 12, gracias a un nuevo framework para networking, la capa de seguridad se ha incrementado de forma significativa en comparación con iOS 11. Por esa razón, te animo a que actualices ahora, y sino en cuanto llegues a casa.

iPhone, iPad y iPod touch compatibles

Este es el listado de dispositivos que soportan la nueva versión de iOS 12:

iPhone
• iPhone X
• iPhone 8
• iPhone 8 Plus
• iPhone 7
• iPhone 7 Plus
• iPhone 6s
• iPhone 6s Plus
• iPhone 6
• iPhone 6 Plus
• iPhone SE
• iPhone 5s

iPad
• iPad Pro de 12,9 pulgadas (2.ª generación)
• iPad Pro de 12,9 pulgadas (1.ª generación)
• iPad Pro (10,5 pulgadas)
• iPad Pro (9,7 pulgadas)
• iPad Air 2
• iPad Air
• iPad (6.ª generación)
• iPad (5.ª generación)
• iPad mini 4
• iPad mini 3
• iPad mini 2

iPod Touch
• iPod touch (6.ª generación)

¿Cuáles son los porcentajes de actualización?

Las estadísticas nos muestran que el año pasado el 85% actualizó sus móviles y tabletas a iOS 11. Además, cada año son más las personas que disfrutan de las increíbles mejoras en el uso de sus dispositivos actualizados. Como resultado, a fecha 3 de septiembre de 2018 mira las cifras: 85% con iOS 11, 10% con iOS 10 y el 5% restante con versiones anteriores.

 

¿Te gustaría ser un desarrollador o desarrolladora de iOS 12?

¿Quieres aprender más?

 

TITULO DE EXPERTO UNIVERSITARIO. Innovación usando la tecnología iOS con programación Swift: Proyectos Europeos.

 

TITULO DE EXPERTO PROFESIONAL. Desarrollo Profesional de Aplicaciones iOS con Swift para Dispositivos Móviles.

 

PROGRAMACIÓN SWIFT Y SUS NUEVOS PARADIGMAS. Certificado de Enseñanza Abierta.

 

DESARROLLADOR DE ELEMENTOS iOS. Certificado de Enseñanza Abierta.

 

CREACIÓN PROFESIONAL DE APLICACIONES DESDE LA IDEA HASTA EL APP STORE. Certificado de Enseñanza Abierta.

Autor: Pedro Hernández

Bibliografía:
◦ Soporte Apple: iOS 12 es compatible con estos dispositivos
◦ Support Apple Developer: Devices are using iOS 11. As measured by the App Store.
◦ Soporte Apple: Cómo hacer una copia de seguridad del iPhone, iPad y iPod touch

Los Gestos iOS en iPhone e iPad (Parte 2)

En Los Gestos iOS en iPhone e iPad (Parte 1) se profundizó en los gestos disponibles en iOS, desde un punto de vista como usuario y se creó el contexto para programar estos gestos. Así que, una vez escrita la base para un developer, o como en castellano nos gusta llamar un programador o programadora, aquí empieza la segunda parte que se centrará en el código a escribir. Comprenderás qué código Swift necesitas para habilitar en una bola naranja los gestos de tocar y arrastrar. Para ello, se utilizará Xcode 10 con Swift 4.2 en un Playground, que es la forma más eficaz para aprender el lenguaje de programación Swift.

 

El objetivo por alcanzar es crear una Live View con una bola, como lo que puedes ver en este vídeo:

 

Como has visto, si solo pulsas la bola naranja se vuelve de color verde y aumenta de tamaño, mientras que si la arrastras, aumenta el diámetro de la bola y al soltarla vuelve a tu tamaño original.

 

Paso a paso

 

En este artículo te explicaré línea a línea el código que necesitarás escribir en el Playground.

 

Antes de empezar a escribir, siempre debes tener claro que es lo que vas a hacer y con qué objetivo. En el vídeo anterior has visto la finalidad, y con el siguiente vídeo deseo que visualices la estructura que tendrá el Playground para que así sepas qué clases necesitarás para conseguirlo. Dentro del Playground Gestos habrá dos clases en la carpeta Sources: FondoView y BolaGestosView. Estas dos clases serán utilizadas por el Playground. FondoView es una clase auxiliar que he creado para la visualización de la Live View.

 

En el siguiente enlace puedes descargarte de GitHub el Playground para poder iniciar el ejemplo: gestos-playground-blog-inicio

¡Empieza la acción!

En primer lugar, crea el playground Gestos en Xcode 10, importando los frameworks UIKit y PlaygroundSupport. A continuación, escribe el código para crear un rectángulo blanco para mostrarlo en la Live View del playground, como si fuese el fondo de una pantalla del iPhone.

 

En la carpeta Sources crea el archivo Swift llamado BolaGestosView. Importa el framework UIKit y escribe la clase BolaGestosView que heredará de la clase UIView. Tendrá un nivel de acceso open para que el Playground pueda usarla.

 

En esta clase escribe el código para crear las funciones para escalar y mover. La función escalar se activará cuando pulses sobre la bola o inicies el arrastre. La función mover se iniciará al arrastrar la bola.

 

Escalar recibirá un número para saber el factor de escala. Recuerda que 1.0 deja a la bola en su mismo tamaño, mientras que un número mayor a 1 aumentará el tamaño de la bola. La animación tiene una duración de 0.1 segundos, con un movimiento en la animación de inicio lento y finalización lenta, tal y como especifica curveEaseInOut. En la animación se le asignará a la bola una transformación de escala.

 

Mover recibe el punto de translación en el que se está arrastrando la bola. Ese punto se lo asigna al centro de la bola. De esta forma, hace que se mueva la bola acorde al movimiento de arrastre. Una vez terminado dicho movimiento se reinicia a cero la translación. Esto evitará un valor incremental en los movimientos de arrastre.

 

Ahora llega el momento de crear las funciones que se activarán cuando se inicien los gestos de pulsar y el de arrastrar.

 

Lo primero es añadirle la palabra clave @objc, debido a que será llamada desde una variable que utiliza un selector, que internamente todavía utiliza elementos creados con el lenguaje de programación Objective-C.

 

La función manejarPulsar recibirá el gesto de pulsar para que así se pueda imprimir el punto exacto que se ha pulsado. Como puedes observar, están comentadas las dos primeras líneas para que decidas si quieres que se imprima por consola el punto pulsado. Entonces, las puedes descomentar eliminando las dos barras. Dentro de esta función hay otra animación con una duración de 0.1 segundos y dicha animación será más lenta al terminar. Esta animación cambiará el color de la bola a verde y aumentará su escala al doble de su tamaño. Una vez terminada esta primera acción, empezará la segunda. Le he añadido un pequeño retraso de otro 0.1 para que permanezca el color verde un poco más, y luego volverá la bola a su color naranja y a su tamaño original mediante la escala con valor 1.

 

La función manejarArrastrar recibe el gesto de arrastrar. De esta forma se puede obtener los diferentes estados del gesto mediante los casos del switch. El primero se produce cuando se inicia el arrastre, aumentando un poco la bola. A continuación, cuando el estado cambia, inicia el movimiento de la bola. Finalmente, cuando termina, se le asigna la escala a 1 para que vuelva la bola a su tamaño inicial.

 

En la parte superior de esta clase se crearán las propiedades que le asignan la función a ejecutar cuando se activa el gesto de pulsar o Tap Gesture, así como el gesto de arrastrar o Pan Gesture. Puedes observar como cada variable, usando los selectores, llama a las funciones que has escrito anteriormente. Estas variables vienen precedidas por lazy, debido a que no se inicializarán hasta que no sean llamadas por el código en tiempo de ejecución.

 

El siguiente diagrama muestra la estructura de estas variables:

 

La variable gesto pulsar mediante el selector activará las acciones que se producirán en la función manejarPulsar(sender:), que a su vez iniciará la función de escalar la bola.

 

Por otra parte, la variable gesto arrastrar iniciará la acción del selector llamando la función manejarArrastrar(sender:). Y como recordarás, los casos del switch llamarán las funciones escalar o mover, según corresponda.

 

Ha llegado la hora de escribir los inicializadores de la clase.

 

El primer init será público para poder usarlo en el Playground. Dentro de él se creará un array constante con las variables de los gestos que creaste antes. A continuación, se realizarán iteraciones sobre el array gestos para añadirlos a la vista, o sea, a la bola.

 

Luego viene un init de conveniencia para poder crear la bola con las dimensiones de un rectángulo. La primera línea establecerá el tamaño recibido para asignárselo a la vista de la bola. En la segunda línea crea un radio del rectángulo, o en este playground un cuadrado. El radio será la mitad del ancho del cuadrado, de esta forma se convertirá en un círculo. La tercera línea activa el radio en la vista.

 

Finalmente se declarará el init requerido para que así se cumpla con los requisitos de los inicializadores de esta clase.

 

A continuación, escribe el código en el Playground para crear la instancia de la bola. Crearás una constante conforme a la clase BolaGestosView.

 

Al ir entre llaves, la inicialización de la bola puede personalizar la creación de la vista. En la primera línea estableces que será un cuadrado de 100 puntos, en la segunda línea defines que el punto sobre el que se aplicarán las transformaciones está en el centro geométrico de la bola. Luego le asignas el color naranja. Finalmente, mediante el return asignas la vista creada a la bola.

 

Seguidamente en la inicialización de la bola, para simplificar, se mostrará el centro de la bola en el centro de la vista blanca del fondo. Por esa razón, la última línea añade la bola al fondo para que sea visible en la Live View.

 

En el siguiente enlace puedes descargarte el Playground terminado desde GitHub, por si deseas compararlo con el tuyo: gestos-playground-blog-terminado

Tutorial completo en: https://theemotionapps.com/tutorial-gesture-recognizer-en-ios-swift-4-2/

 

¿Quieres aprender más?

 

TITULO DE EXPERTO UNIVERSITARIO. Innovación usando la tecnología iOS con programación Swift: Proyectos Europeos.

 

TITULO DE EXPERTO PROFESIONAL. Desarrollo Profesional de Aplicaciones iOS con Swift para Dispositivos Móviles.

 

PROGRAMACIÓN SWIFT Y SUS NUEVOS PARADIGMAS. Certificado de Enseñanza Abierta.

 

DESARROLLADOR DE ELEMENTOS iOS. Certificado de Enseñanza Abierta.

 

CREACIÓN PROFESIONAL DE APLICACIONES DESDE LA IDEA HASTA EL APP STORE. Certificado de Enseñanza Abierta.

Los Gestos iOS en iPhone e iPad (Parte 1)

Los dispositivos móviles táctiles nos han cautivado por su rapidez y sencillez. La sensación de tocar las aplicaciones para sacarle su máximo poder es algo increíble. Mover tu avatar en un juego, pulsar el botón de Play para escuchar los Top 50, ampliar el zoom de ese paisaje tan bonito que estás fotografiando para destacar algo que te ha encantado, dibujar un boceto de la casa de tus sueños, y tantas cosas que puedes hacer con los gestos de tus dedos

Desde que Steve Jobs lanzó el primer iPhone el año 2007, Apple ha estado trabajando arduamente para dotar al sistema operativo iOS de varios eventos táctiles para que tu experiencia sea muy positiva. Para ello, Apple desarrolló el framework UIKit que está disponible para los dispositivos iPhone, iPad, Apple Watch, Apple TV, HomePod y Apple CarPlay. A continuación, te he escrito los gestos más importantes con su nombre en español e inglés:

  • Pulsar o Tap.
  • Arrastrar o Drag.
  • Golpecito o Flick.
  • Arrastre rápido o Swipe.
  • Golpe doble o Double Tap.
  • Pellizco o Pinch.
  • Tocar y sostener o Touch and Hold.
  • Agitar o Shake.

 

Puedes ver en acción estos gestos en el vídeo que te he creado usando la sección  Gestures  que está en la iOS Human Interface Guidelines de Apple.

VIDEO Los Gestos iOS con URL YouTube:

https://youtu.be/JD_33mc9MXo

 

Una vez que tenemos esta idea de conjunto de estos ocho gestos que reconoce el sistema operativo iOS, es el momento de introducirse en cómo se programan los gestos.

El framework UIKit dispone de la clase base UIGestureRecognizer para establecer la lógica para implementar los toques que recibe la pantalla. El detalle de las subclases, propiedades y métodos que Apple ha creado está en su Developer Documentation. Las subclases tienen variables y funciones que habilitan características específicas para cada tipo de gesto. Por ejemplo, si utilizas el gesto de pellizco o pinch para aumentar el tamaño de una foto, es de gran ayuda tener la propiedad scale para conocer exactamente el valor de escala que aumentará el gesto a esa foto. De igual forma, la variable velocity dirá la rapidez con la que el usuario ha hecho este gesto de aumentar, siendo muy útil esta información para añadirle una animación muy atractiva acorde a la velocidad del gesto. Las subclases disponibles son:

  • UITapGestureRecognizer
  • UIPinchGestureRecognizer
  • UIRotationGestureRecognizer
  • UISwipeGestureRecognizer
  • UIPanGestureRecognizer
  • UIScreenEdgePanGestureRecognizer
  • UILongPressGestureRecognizer

En el siguiente vídeo podrás ver el contenido de UIGestureRecognizer en Developer Documentation:

VÍDEO UIGestureRecognizer Apple Developer Documentation con URL YouTube: https://youtu.be/jBbNsJLkL8s

 

Ahora que ya identificas los nombres de los gestos en español e inglés, así como la información que Apple ofrece para poder implementar el código para los gestos en una aplicación, llega el momento de ver un ejemplo real. En la segunda parte de este artículo podrás ver en detalle cómo escribir el código Swift necesario para pulsar sobre un objeto y moverlo por la pantalla. Además, este Playground lleva una serie de animaciones para hacer más atractivos los eventos táctiles.

Aquí puedes ver la Live View del Playground que programarás paso a paso en la parte 2 con Xcode 10 y Swift 4.2:

VÍDEO Playground Live View gestos iOS pulsar y arrastrar con URL YouTube: https://youtu.be/6_yMXV77z5Y

¿Quieres aprender más?

Experto Universitario Innovación usando la tecnología iOS con programación Swift – Proyectos Europeos

Icono Experto Universitario Innovación usando la tecnología iOS con programación Swift - Proyectos Europeos

Experto Profesional Aplicaciones iOS con Swift para Dispositivos Móviles

Icono Experto Profesional Aplicaciones iOS con Swift para Dispositivos Móviles

Programación Swift y sus nuevos paradigmas

Icono Programación Swift y sus nuevos paradigmas

Desarrollador de elementos iOS

Icono Desarrollador de elementos iOS

Creación profesional de aplicaciones desde la idea hasta el App Store

Icono Creación profesional de aplicaciones desde la idea hasta el App Store

Autor: Pedro Hernández.

Crónica del curso de verano DH@Madrid Summer School 2018

Bajo el título Aplicaciones y posibilidades del procesamiento del Lenguaje Natural para la Investigación en Humanidades por quinto año consecutivo, DH@Madrid Summer School 2018 ha tenido lugar en la UNED en su emblemático salón de actos Andrés Bello.

Durante los tres días de curso, se ha propuesta una introducción al Procesamiento del Lenguaje Natural centrado en su aplicación a los problemas propios de la investigación en Humanidades Digitales. De esta manera, el curso se ha dirigido a todos aquellos interesados en métodos digitales de investigación aplicados a las humanidades.

Nuevamente en esta oportunidad, los contenidos del curso, han podido seguirse de forma presencial y online, y ya se puede acceder en diferido.

Esta nueva edición del curso de verano ha contado entre otras, con la colaboración de las infraestructuras europeas de investigación CLARIN y DARIAH, así como de distintas redes de humanidades digitales, y ha sido organizado por el LINHD en el marco del proyecto POSTDATA.

DH@Madrid 2018

El lunes comenzó con la bienvenida y la presentación del curso por parte de los directores, Clara I. Martinéz Cantón y Salvador Ros Muñoz.

A continuación, Elena Álvarez Mellado, nos deleitó con su ponencia de “La lengua al microscopio: introducción básica al NLP desde Humanidades”, explicando las posibilidades que permiten las herramientas de la Lingüística computacional, mediante el análisis informático de grandes cantidades de textos. Su ponencia ha comenzado con una comparación entre el tabú que existía en época medieval en relación a la disección de cuerpos humanos para comprender su funcionamiento, y el peso de la tradición médica de Galeno, cuyas teorías estaban basadas principalmente en la observación, pero no se contrastaban. Explicó, además, las tareas básicas de un ordenador a la hora de procesar un texto.

 

La tarde del lunes se cerró con la presentación de Jennifer Edmond, Directora de proyectos estratégicos del Trinity Long Room Hub Arts & Humanities Research Institute, contándonos sobre la infraestructura DARIAH y de las ventajas de crear y compartir una infraestructura común que nos facilite el acceso a redes de trabajo y al conocimiento compartido entre diversos actores. De esta manera, tener una estructura también permite acercarse y ajustarse mejor a estándares como Open Science, incrementa las posibilidades de obtener financiación y promueve la sostenibilidad a lo largo del tiempo de los resultados. Permite además, estar al día de qué se está haciendo en el entorno de tu investigación.

El día martes, comenzó con la charla de Pablo Ruiz Fabo que ha introducido la noción expresión regular (regular expression- regex) y ha mostrado con diversos ejemplos y ejercicios cómo explorar un corpus de textos mediante el uso de regex, aprendiendo a modificar cadenas de texto eficazmente. La exposición teórica estuvo acompañada de ejercicios en donde se aprendieron, entre otras, las diferencias entre los elementos literales y los especiales. Durante su ponencia Pablo ha proporcionado una serie de enlaces donde poder usar las
expresiones regulares en Internet y también unos editores para poder descargarse en los ordenadores.

Mikel Iruskieta, investigador del Grupo IXA de la Universidad el País Vasco, exponía la potencialidad de Python y el lenguaje de programación para extraer o generar corpora textuales y explotarlos, guardando los resultados obtenidos. También, explicaba las tareas de PLN que pueden realizarse con Python, como la extracción de información de textos de distinto tipo, buscar términos en la web y comparar frecuencias, el desarrollo de programas basados en análisis lingüísticos y búsquedas basadas en diccionarios, guardando toda la información obtenida en XML. Asimismo, explicaba para qué podían ser útiles las infraestructuras del procesamiento del lenguaje, como CLARIN-K.

Por su parte, Mª Luisa Díez Platas, Investigadora del proyecto POSTDATA, se centró en la presentación de una herramienta que ha sido desarrollada en el Proyecto POSTDATA para el reconocimiento de entidades nombradas: Hispanic Medieval Tagger (HisMeTag). Constituye una de las tareas más importantes en la extracción de información y consiste en el reconocimiento y la clasificación de nombres de personas, lugares, organizaciones, expresiones numéricas, expresiones temporales, etc.  Su principal novedad es el reconocimiento de entidades nombradas en textos medievales. Pero, además, gracias a HisMeTag ha sido posible la creación de una taxonomía de entidades que puede servir de gran utilidad para los humanistas en su tarea de análisis de los textos.

La tarde del martes finalizó con la ponencia de Elena González-Blanco, investigadora principal del Proyecto POSTDATA y General Manager of Europe en CoverWallet. Elena comenzó con un repaso de lo que son las Humanidades Digitales y la situación actual, con el machine learning y la inteligencia artificial. Comentó que la inteligencia artificial es una etiqueta que engloba muchas cosas: reconocimiento facial o de escritura; máquinas que pueden llevar a cabo razonamientos complejos, como jugar al ajedrez; algoritmos complejos que se resuelven solos; los chatbots y los asistentes virtuales o los medios de transporte que se conducen solos. Son tecnologías diversas que se aplican a diferentes ámbitos, pero que todas tienen un punto en común: la transformación digital. No es la disciplina la que marca la diferencia, sino la tecnología y el tipo de materia sobre la que se aplica.

El último día de curso, comenzó con la charla de Antonio Robles de la UNED y José Manuel Fradejas de la Universidad de Valladolid. Se puso de manifiesto la necesidad de la interdisciplinariedad, uniendo el aspecto informático con el humanístico. En este sentido, el lenguaje R no solo sirve para el análisis de textos sino también para realizar análisis estadísticos y visualizaciones avanzadas. El profesor Fradejas explicó qué es la estilometría y señaló cuales son los libros reveladores en el campo de la estilometría para él. La charla de José Manuel también tuvo una gran parte de práctica para demostrar otras potencialidades del PLN.

A continuación, Gimena del Río, investigadora de CONICET- Argentina, explicó en qué consistía el proyecto Pelagios, y lo que es un gazetteer (una base de datos histórico-geográfica que permite trabajar en sistemas de información geográfica con coordenadas geotópicas). La estructura Pelagios está centrada en datos geográficos como entidades nombradas y trabaja distintas tecnologías: Linked Open Data, Geographical Information Systems, Natural Language Processing, GeoJson, XML-TEI, etc. Además su uso es muy intuitivo, como se pudo comprobar
durante la práctica.

La intervención de Helena Bermúdez Sabel, investigadora del Proyecto POSTDATA, fue de carácter eminentemente práctico. Comenzó, sin embargo, con una breve introducción sobre en qué consiste XML y sus ventajas respecto a otros formatos, al unir un lenguaje humano y uno informático. Así, la finalidad principal del lenguaje XML es la de modelar la estructura inherente y las propiedades semánticas de diversos documentos culturales por medio de hierarquías y estructuras ordenadas. Entre las aplicaciones prácticas de XML para las Humanidades Digitales cabe destacar la identificación de estrofas y versos y una serie de recursos estilísticos.

Para finalizar y a modo de colofón del curso, Enrique Vidal, catedrático de la Universidad Politécnica de Valencia, explica cómo llevar a la práctica en un proyecto de investigación, el Procesamiento del Lenguaje Natural. Hace algunas décadas numerosos investigadores vaticinaron el fin del papel como modelo de transmisión del texto escrito. Sin embargo, este vaticinio no se cumplió y hoy en día existe una buena cantidad de textos escritos a mano que no han sido procesados aún mediante herramienta informática alguna. Las tecnologías que se están desarrollando actualmente para procesar textos manuscritos son cada día más numerosas. Explicó que se han desarrollado tecnologías de interacción persona-máquina que permiten conseguir transcripciones perfectas con un esfuerzo mucho menor del que supondría una transcripción manual por parte de un ser humano. Estos son los llamados métodos interactivo-predictivos de transcripción asistida. Además, se han desarrollado tecnologías de predicción probabilística de texto en imágenes, que se pueden aplicar directamente a las imágenes sin tenerlas explícitamente transcritas.

¡¡¡Muchas gracias a todos por la participación…los esperamos el año que viene!!

 

DH@Madrid Summer School 2018- ¡Matrícula abierta!

La escuela de verano DH@Madrid Summer School 2018 es un evento anual que se organiza cada año desde 2014. En esta oportunidad, presentaremos el curso “Aplicaciones y posibilidades del procesamiento del lenguaje natural para la investigación en humanidades” que se  llevará a cabo entre los días 9 y 11 de julio de 2018 en la UNED. 

Este año, el curso DH@Madrid Summer School se propone ser una introducción al Procesamiento del Lenguaje Natural centrado en su aplicación a los problemas propios de la investigación en Humanidades Digitales. Su meta es introducir a los estudiantes con una formación en humanidades o ciencias sociales el contenido técnico buscando un enfoque claro y diverso, haciéndoles ver las distintas posibilidades a la hora de encarar su trabajo o investigación.

 

 

Contará ademas, con la colaboración de importantes expertos internacionales en Humanidades Digitales, tecnología semántica y procesamiento del lenguaje y estará dirigido a especialistas en Humanidades Digitales, lingüistas, investigadores, profesores, académicos, y estudiantes tanto de máster como de doctorado, preferentemente en disciplinas humanísticas, pero también en disciplinas como informática o ciencias de la información.

 

La escuela está cofinanciada por el proyecto ERC POSTDATA y la Fundación UNED.

                  ¡Entra en la página del curso: http://linhd.es/p/dh-verano-2018/ y no dudes en preguntarnos!

POSTDATA imparte taller sobre datos abiertos enlazados en Würzburg

Durante este mes de abril algunos de los miembros de POSTDATA se desplazaron a Würzburg para impartir un taller sobre datos abiertos enlazados y sobre procesamiento del lenguaje natural.

Este evento fue organizado por el grupo de investigación CLiGS (Computational Literary Genre Stylistics) que está vinculado a la Universität Würzburg.

Del 23 al 25 de abril, los participantes de este taller tuvieron la oportunidad de explorar diferentes recursos de datos abiertos enlazados utilizando el lenguaje de consulta SPARQL. Además, hubo una sesión dedicada al enriquecimiento de corpus literarios con RDFa como mecanismo para traducir la compleja semántica de TEI a la Web. El tercer día estuvo centrado en el aprendizaje de diferentes técnicas de procesamiento del lenguaje natural. Con una marcada vertiente práctica, los miembros de GLiGS tuvieron tiempo para poder aplicar todas las herramientas presentadas.

El taller se clausuró con una charla titulada Linked Open Data: Unchain your corpora en la que se aprovechó para presentar algunos de los resultados obtenidos durante los días precedentes.

Agradecemos una vez más al grupo CLiGS por la excelente acogida que hicieron de nuestros miembros en Würzburg!

 

DH@Madrid Curso de Verano 2018: “Aplicaciones y posibilidades del procesamiento del lenguaje natural para la investigación en HD”

La UNED a través de su oferta formativa de cursos de verano 2018 y organizado por el LINHD y el proyecto ERC POSTDATA, ofrece el curso “Aplicaciones y posibilidades del procesamiento del lenguaje natural para la investigación en Humanidades Digitales”

Este curso se propone ser una introducción al Procesamiento del Lenguaje Natural centrado en su aplicación a los problemas propios de la investigación en Humanidades Digitales. Su meta es introducir a los estudiantes con una formación en humanidades o ciencias sociales el contenido técnico buscando un enfoque claro y diverso, haciéndoles ver las distintas posibilidades a la hora de encarar su trabajo o investigación.

El curso de verano de Humanidades Digitales de la UNED se celebra anualmente desde 2014. Está dirigido todos aquellos interesados en métodos digitales de investigación aplicados a las humanidades, y centrado principalmente en personas con formación humanística, pero abierto a todo aquel interesado.

El curso se oferta tanto de forma presencial como online en directo y en diferido. Del 9 al 11 de julio de 2018 en la UNED.

 

Si no dispones de tiempo para abordar en profundidad tu formación durante el año o quieres especializarte, esta es una buena oportunidad de aprender y aprovechar las vacaciones para afrontar la nueva temporada con un perfil profesional más completo, con nosotros.

 

Mas información

Taller sobre introducción al análisis de texto con R dictado por Salvador Ros en Trinity College, Dublín

Salvador Ros, Director de LINHD, miembro del equipo de POSTDATA y Subdirector de Tecnología en ETS de Ingeniera Informática de la UNED fue invitado a participar de la serie de talleres “Digital Scolarship and Skill” que dicta la Trinity College de Dublin.

El Dr. Ros dictó el taller de “Introducción al análisis de texto con R”, el pasado 13 de marzo, proporcionando una introducción a las teorías, prácticas y métodos para el análisis cuantitativo en Humanidades usando el lenguaje de programación R. El taller se dividió en tres partes durante las cuales los estudiantes han sido introducidos a los conceptos clave y técnicas de microanálisis (el estudio de un texto), mesoanálisis (el estudio de un pequeño corpus) y macroanálisis (el estudio de un corpus grande). El taller combinó conferencias y debates con ejercicios prácticos.

Enlace al programa http://dh.tcd.ie/dh/digital-scholarship-and-skills-workshop-series-hilary-term-2018/

 

 

Crónica del curso de verano DH@Madrid Summer School 2017

Bajo el título Tecnologías semánticas y herramientas lingüísticas para humanidades digitales/Semantic web technologies and language resoruces for digital humanities, por tercer año consecutivo la DH@Madrid Summer School 2017 de la UNED ha sido un hervidero de ideas y conocimientos sobre distintos métodos digitales de investigación aplicados a las Humanidades. Investigadores en Filología y Humanidades Digitales han podido aprender una gran variedad de herramientas tecnológicas con las que poder posicionar sus proyectos de investigación en el centro del actual contexto académico digital.

Los contenidos de este curso que, de nuevo, han podido seguirse de forma presencial y online, y a los que se podrá acceder en diferido, se han centrado en las tecnologías del lenguaje y, fundamentalmente, en las tecnologías semánticas. El curso de verano de Humanidades Digitales 2017 que está avalado por la infraestructura europea de investigación CLARIN, ha sido cofinanciado por uno de los proyectos que desarrolla el LINHD: POSDATA, que precisamente está basado en la aplicación de procedimientos semánticos para crear un modelo único que haga interoperables los datos pertenecientes a las distintas tradiciones poéticas.

Durante los tres días que ha durado el curso, eminentemente práctico, se ha demostrado la aplicación a proyectos de Humanidades de tecnologías como el lenguaje de programación R, especialmente para estudios de estilometría o métodos como las expresiones regulares.

La tarde del lunes se cerró trabajando sobre metadatos y testando el entorno virtual de investigación EVILINHD para la inclusión de esquemas de metadatos y vocabularios controlados. Aparte de las sesiones prácticas, también ha habido espacio para repasar los fundamentos de las Humanidades Digitales y seguir la trayectoria personal de mano de Susan Schreibman en la conferencia plenaria que abrió la mañana del miércoles.

Para todos aquellos que no conocían, o sabían poco acerca de la infraestructura CLARIN, se pudo visualizar su trabajo en la presentación de los proyectos de los centros Clarin-K españoles.

Los métodos y conceptos asociados a Linked Open Data estuvieron presentes a lo largo de todo el curso de verano, pero fue el último día cuando las sesiones se centraron en casos concretos de utilización los datos abiertos y enlazados en las Humanidades.