Entradas

¿Cómo visitar los museos de todo el mundo sin movernos de casa? Con Google Art Project

¿Qué es Google Art Project? Se trata de una muestra online de más de 40.000 obras de artistas de todo el mundo. De las cuales, muchas están en formato gigapíxel, en una altísima resolución. La plataforma de momento reúne organizaciones culturales y facilita la visita desde casa a las salas de museos de todo el mundo mediante paseos virtuales, facilitando el acceso a la cultura y al arte. Es un ambicioso proyecto, muy innovador, y del que forman parte numerosos museos e instituciones españolas. ¿Nos vamos de museos?

Con Google Art Project el usuario puede navegar actualmente entre obras de artistas de todo el mundo, descubrir obras en calidad gigapíxel, museos con la vista de Street View y con imágenes como la de El grito de Edvard Munch o las reliquias ancestrales de China o Japón.

Esta muestra online recoge pintura, arqueología, antropología, escultura, artes decorativas… España comenzó en 2010 a participar en este proyecto de digitalización en alta resolución con obras del Museo del Prado como El jardín de las delicias de El Bosco. Ahora se pueden contemplar en alta resolución piezas como La Dama de Elche.

Las obras seleccionadas son referente de las colecciones y pinturas, son claves en la historia del arte español y universal: El entierro de la Sardina de Francisco de Goya. Esta célebre pintura de género del maestro evoca las fiestas que celebraban los madrileños para despedir los carnavales la víspera del miércoles de ceniza, con el que comienza el tiempo de Cuaresma. Imágenes realizadas con una resolución de 7.000 millones de píxeles que permiten examinar al detalle las obras.

Muchos museos españoles son ya los que se han incorporado a la plataforma. Google-art-project

La Academia, Museo Arqueológico Nacional, Museo Casa Cervantes de Valladolid, Museo de América, Museo Nacional de Arqueología Subacuática, Museo Nacional de Cerámica y Artes Suntuarias González Martí de Valencia y Museo Sefardí.

Google Art Project es el resultado de unir la tecnología y la cultura y ponerla a disposición de todo el mundo. Esperamos que más museos e instituciones españolas confíen en el potencial que Internet y la tecnología tienen para llevar la cultura y el arte hasta audiencias globales.

Es un recorrido interactivo por los museos más importantes del mundo y por las obras fundamentales de sus colecciones artísticas. De muchas de las obras es posible conocer su ficha técnica y un comentario sobre las mismas. Numerosas explicaciones de académicos y de los profesionales de la Corporación descubren detalles y aspectos de las obras de arte. La visita virtual es una guía que facilita el libre acceso y el conocimiento de estas instituciones y su rico patrimonio.

Una excelente ocasión para conocer estas riquezas artísticas sin salir de casa. Aunque yo sinceramente, que prefiero el encanto del directo, reconozco la ventaja de este proyecto, sobre todo para los que no podamos viajar tanto como nos gustaría, nos da la posibilidad de admirar estas impresionantes colecciones. Así que os dejo el enlace de Google Art Project y a disfrutar de la visita.

Además la última novedad una función que te permite saber si tienes un doble en alguna obra de arte, “Art Selfie”. Es una herramienta basada en la inteligencia artificial que busca automáticamente similitudes de los rasgos faciales de una persona entre los cuadros más importantes.

Así que descubre ¿Qué obra de arte eres? Google Art Project

¿Los museos deberían adaptase a las nuevas tecnologías? ¿Te gusta esta iniciativa?

Autor: Rosa Sebastià

@rosasebastia

 

iOS 12 nueva actualización: instalación y dispositivos compatibles

¿Cuándo está disponible iOS 12?

¡Ya está aquí la primera versión de iOS 12! El pasado miércoles 12, entre otras presentaciones, se enseñó a todos los públicos el mejor sistema operativo para iPhone, iPad y iPod Touch, jamás creado por Apple. Desde luego, que no dirás que no han sabido escoger bien el día del mes, jaja.

En este acto se anunció que la fecha de lanzamiento es el lunes 17 de septiembre de 2018. Aquí todos tendremos disponible la nueva actualización de iOS. ¡Por fin se acabaron las versiones beta!

 

Hacer una copia de seguridad para más tranquilidad

Para evitar un mal rato o disgustos siempre haz una copia de seguridad de tu iPhone o iPad antes de la instalación.

Tienes dos opciones. Una usando iTunes conectando tu dispositivo a tu Mac u otra directamente desde el dispositivo para hacerla en iCloud.

En este vídeo puedes ver cómo se puede hacer la copia usando iTunes. En tu Mac puedes elegir entre guardarlo en iCloud o en el disco duro.

La mejor Copia de Seguridad en iTunes con Mac

 

O aquí tienes la segunda forma de hacerlo, por ejemplo, en un iPhone utilizando iCloud y habilitando esta opción:

La mejor Copia de Seguridad en iCloud para iPhone iPad

 

¿Cómo instalar iOS 12?

El proceso es sencillo. Ve a Ajustes, luego a General, a continuación, pulsa en Actualización de software y finalmente te aparecerá para instalarlo. En el siguiente vídeo puedes ver el proceso súper rápido.

Tutorial completo para instalar iOS 12 paso a paso desde cero

 

¡Cuidado! Cuando vayas a actualizarlo, recuerda estas dos cosas muy importantes:

◎ Ten a mano el cargador por si te dice que no tienes suficiente nivel de batería.
◎ Si esperas una llamada o mensaje urgente, puedes descargar la actualización, pero no la instales, ya que durante unos minutos estará apagado el dispositivo. Serán pocos o muchos minutos, según el modelo.

¿Merece la pena invertir tiempo en instalarlo?

Un ¡Sí! rotundo. Sobre todo, vas a tener una mejor usabilidad, y una mayor seguridad en tu dispositivo y aplicaciones. Por ejemplo, entre otras novedades, cuando tu app favorita accede a un servidor que está en internet ahora con iOS 12, gracias a un nuevo framework para networking, la capa de seguridad se ha incrementado de forma significativa en comparación con iOS 11. Por esa razón, te animo a que actualices ahora, y sino en cuanto llegues a casa.

iPhone, iPad y iPod touch compatibles

Este es el listado de dispositivos que soportan la nueva versión de iOS 12:

iPhone
• iPhone X
• iPhone 8
• iPhone 8 Plus
• iPhone 7
• iPhone 7 Plus
• iPhone 6s
• iPhone 6s Plus
• iPhone 6
• iPhone 6 Plus
• iPhone SE
• iPhone 5s

iPad
• iPad Pro de 12,9 pulgadas (2.ª generación)
• iPad Pro de 12,9 pulgadas (1.ª generación)
• iPad Pro (10,5 pulgadas)
• iPad Pro (9,7 pulgadas)
• iPad Air 2
• iPad Air
• iPad (6.ª generación)
• iPad (5.ª generación)
• iPad mini 4
• iPad mini 3
• iPad mini 2

iPod Touch
• iPod touch (6.ª generación)

¿Cuáles son los porcentajes de actualización?

Las estadísticas nos muestran que el año pasado el 85% actualizó sus móviles y tabletas a iOS 11. Además, cada año son más las personas que disfrutan de las increíbles mejoras en el uso de sus dispositivos actualizados. Como resultado, a fecha 3 de septiembre de 2018 mira las cifras: 85% con iOS 11, 10% con iOS 10 y el 5% restante con versiones anteriores.

 

¿Te gustaría ser un desarrollador o desarrolladora de iOS 12?

¿Quieres aprender más?

 

TITULO DE EXPERTO UNIVERSITARIO. Innovación usando la tecnología iOS con programación Swift: Proyectos Europeos.

 

TITULO DE EXPERTO PROFESIONAL. Desarrollo Profesional de Aplicaciones iOS con Swift para Dispositivos Móviles.

 

PROGRAMACIÓN SWIFT Y SUS NUEVOS PARADIGMAS. Certificado de Enseñanza Abierta.

 

DESARROLLADOR DE ELEMENTOS iOS. Certificado de Enseñanza Abierta.

 

CREACIÓN PROFESIONAL DE APLICACIONES DESDE LA IDEA HASTA EL APP STORE. Certificado de Enseñanza Abierta.

Autor: Pedro Hernández

Bibliografía:
◦ Soporte Apple: iOS 12 es compatible con estos dispositivos
◦ Support Apple Developer: Devices are using iOS 11. As measured by the App Store.
◦ Soporte Apple: Cómo hacer una copia de seguridad del iPhone, iPad y iPod touch

Los Gestos iOS en iPhone e iPad (Parte 2)

En Los Gestos iOS en iPhone e iPad (Parte 1) se profundizó en los gestos disponibles en iOS, desde un punto de vista como usuario y se creó el contexto para programar estos gestos. Así que, una vez escrita la base para un developer, o como en castellano nos gusta llamar un programador o programadora, aquí empieza la segunda parte que se centrará en el código a escribir. Comprenderás qué código Swift necesitas para habilitar en una bola naranja los gestos de tocar y arrastrar. Para ello, se utilizará Xcode 10 con Swift 4.2 en un Playground, que es la forma más eficaz para aprender el lenguaje de programación Swift.

 

El objetivo por alcanzar es crear una Live View con una bola, como lo que puedes ver en este vídeo:

 

Como has visto, si solo pulsas la bola naranja se vuelve de color verde y aumenta de tamaño, mientras que si la arrastras, aumenta el diámetro de la bola y al soltarla vuelve a tu tamaño original.

 

Paso a paso

 

En este artículo te explicaré línea a línea el código que necesitarás escribir en el Playground.

 

Antes de empezar a escribir, siempre debes tener claro que es lo que vas a hacer y con qué objetivo. En el vídeo anterior has visto la finalidad, y con el siguiente vídeo deseo que visualices la estructura que tendrá el Playground para que así sepas qué clases necesitarás para conseguirlo. Dentro del Playground Gestos habrá dos clases en la carpeta Sources: FondoView y BolaGestosView. Estas dos clases serán utilizadas por el Playground. FondoView es una clase auxiliar que he creado para la visualización de la Live View.

 

En el siguiente enlace puedes descargarte de GitHub el Playground para poder iniciar el ejemplo: gestos-playground-blog-inicio

¡Empieza la acción!

En primer lugar, crea el playground Gestos en Xcode 10, importando los frameworks UIKit y PlaygroundSupport. A continuación, escribe el código para crear un rectángulo blanco para mostrarlo en la Live View del playground, como si fuese el fondo de una pantalla del iPhone.

 

En la carpeta Sources crea el archivo Swift llamado BolaGestosView. Importa el framework UIKit y escribe la clase BolaGestosView que heredará de la clase UIView. Tendrá un nivel de acceso open para que el Playground pueda usarla.

 

En esta clase escribe el código para crear las funciones para escalar y mover. La función escalar se activará cuando pulses sobre la bola o inicies el arrastre. La función mover se iniciará al arrastrar la bola.

 

Escalar recibirá un número para saber el factor de escala. Recuerda que 1.0 deja a la bola en su mismo tamaño, mientras que un número mayor a 1 aumentará el tamaño de la bola. La animación tiene una duración de 0.1 segundos, con un movimiento en la animación de inicio lento y finalización lenta, tal y como especifica curveEaseInOut. En la animación se le asignará a la bola una transformación de escala.

 

Mover recibe el punto de translación en el que se está arrastrando la bola. Ese punto se lo asigna al centro de la bola. De esta forma, hace que se mueva la bola acorde al movimiento de arrastre. Una vez terminado dicho movimiento se reinicia a cero la translación. Esto evitará un valor incremental en los movimientos de arrastre.

 

Ahora llega el momento de crear las funciones que se activarán cuando se inicien los gestos de pulsar y el de arrastrar.

 

Lo primero es añadirle la palabra clave @objc, debido a que será llamada desde una variable que utiliza un selector, que internamente todavía utiliza elementos creados con el lenguaje de programación Objective-C.

 

La función manejarPulsar recibirá el gesto de pulsar para que así se pueda imprimir el punto exacto que se ha pulsado. Como puedes observar, están comentadas las dos primeras líneas para que decidas si quieres que se imprima por consola el punto pulsado. Entonces, las puedes descomentar eliminando las dos barras. Dentro de esta función hay otra animación con una duración de 0.1 segundos y dicha animación será más lenta al terminar. Esta animación cambiará el color de la bola a verde y aumentará su escala al doble de su tamaño. Una vez terminada esta primera acción, empezará la segunda. Le he añadido un pequeño retraso de otro 0.1 para que permanezca el color verde un poco más, y luego volverá la bola a su color naranja y a su tamaño original mediante la escala con valor 1.

 

La función manejarArrastrar recibe el gesto de arrastrar. De esta forma se puede obtener los diferentes estados del gesto mediante los casos del switch. El primero se produce cuando se inicia el arrastre, aumentando un poco la bola. A continuación, cuando el estado cambia, inicia el movimiento de la bola. Finalmente, cuando termina, se le asigna la escala a 1 para que vuelva la bola a su tamaño inicial.

 

En la parte superior de esta clase se crearán las propiedades que le asignan la función a ejecutar cuando se activa el gesto de pulsar o Tap Gesture, así como el gesto de arrastrar o Pan Gesture. Puedes observar como cada variable, usando los selectores, llama a las funciones que has escrito anteriormente. Estas variables vienen precedidas por lazy, debido a que no se inicializarán hasta que no sean llamadas por el código en tiempo de ejecución.

 

El siguiente diagrama muestra la estructura de estas variables:

 

La variable gesto pulsar mediante el selector activará las acciones que se producirán en la función manejarPulsar(sender:), que a su vez iniciará la función de escalar la bola.

 

Por otra parte, la variable gesto arrastrar iniciará la acción del selector llamando la función manejarArrastrar(sender:). Y como recordarás, los casos del switch llamarán las funciones escalar o mover, según corresponda.

 

Ha llegado la hora de escribir los inicializadores de la clase.

 

El primer init será público para poder usarlo en el Playground. Dentro de él se creará un array constante con las variables de los gestos que creaste antes. A continuación, se realizarán iteraciones sobre el array gestos para añadirlos a la vista, o sea, a la bola.

 

Luego viene un init de conveniencia para poder crear la bola con las dimensiones de un rectángulo. La primera línea establecerá el tamaño recibido para asignárselo a la vista de la bola. En la segunda línea crea un radio del rectángulo, o en este playground un cuadrado. El radio será la mitad del ancho del cuadrado, de esta forma se convertirá en un círculo. La tercera línea activa el radio en la vista.

 

Finalmente se declarará el init requerido para que así se cumpla con los requisitos de los inicializadores de esta clase.

 

A continuación, escribe el código en el Playground para crear la instancia de la bola. Crearás una constante conforme a la clase BolaGestosView.

 

Al ir entre llaves, la inicialización de la bola puede personalizar la creación de la vista. En la primera línea estableces que será un cuadrado de 100 puntos, en la segunda línea defines que el punto sobre el que se aplicarán las transformaciones está en el centro geométrico de la bola. Luego le asignas el color naranja. Finalmente, mediante el return asignas la vista creada a la bola.

 

Seguidamente en la inicialización de la bola, para simplificar, se mostrará el centro de la bola en el centro de la vista blanca del fondo. Por esa razón, la última línea añade la bola al fondo para que sea visible en la Live View.

 

En el siguiente enlace puedes descargarte el Playground terminado desde GitHub, por si deseas compararlo con el tuyo: gestos-playground-blog-terminado

Tutorial completo en: https://theemotionapps.com/tutorial-gesture-recognizer-en-ios-swift-4-2/

 

¿Quieres aprender más?

 

TITULO DE EXPERTO UNIVERSITARIO. Innovación usando la tecnología iOS con programación Swift: Proyectos Europeos.

 

TITULO DE EXPERTO PROFESIONAL. Desarrollo Profesional de Aplicaciones iOS con Swift para Dispositivos Móviles.

 

PROGRAMACIÓN SWIFT Y SUS NUEVOS PARADIGMAS. Certificado de Enseñanza Abierta.

 

DESARROLLADOR DE ELEMENTOS iOS. Certificado de Enseñanza Abierta.

 

CREACIÓN PROFESIONAL DE APLICACIONES DESDE LA IDEA HASTA EL APP STORE. Certificado de Enseñanza Abierta.

Los Gestos iOS en iPhone e iPad (Parte 1)

Los dispositivos móviles táctiles nos han cautivado por su rapidez y sencillez. La sensación de tocar las aplicaciones para sacarle su máximo poder es algo increíble. Mover tu avatar en un juego, pulsar el botón de Play para escuchar los Top 50, ampliar el zoom de ese paisaje tan bonito que estás fotografiando para destacar algo que te ha encantado, dibujar un boceto de la casa de tus sueños, y tantas cosas que puedes hacer con los gestos de tus dedos

Desde que Steve Jobs lanzó el primer iPhone el año 2007, Apple ha estado trabajando arduamente para dotar al sistema operativo iOS de varios eventos táctiles para que tu experiencia sea muy positiva. Para ello, Apple desarrolló el framework UIKit que está disponible para los dispositivos iPhone, iPad, Apple Watch, Apple TV, HomePod y Apple CarPlay. A continuación, te he escrito los gestos más importantes con su nombre en español e inglés:

  • Pulsar o Tap.
  • Arrastrar o Drag.
  • Golpecito o Flick.
  • Arrastre rápido o Swipe.
  • Golpe doble o Double Tap.
  • Pellizco o Pinch.
  • Tocar y sostener o Touch and Hold.
  • Agitar o Shake.

 

Puedes ver en acción estos gestos en el vídeo que te he creado usando la sección  Gestures  que está en la iOS Human Interface Guidelines de Apple.

VIDEO Los Gestos iOS con URL YouTube:

https://youtu.be/JD_33mc9MXo

 

Una vez que tenemos esta idea de conjunto de estos ocho gestos que reconoce el sistema operativo iOS, es el momento de introducirse en cómo se programan los gestos.

El framework UIKit dispone de la clase base UIGestureRecognizer para establecer la lógica para implementar los toques que recibe la pantalla. El detalle de las subclases, propiedades y métodos que Apple ha creado está en su Developer Documentation. Las subclases tienen variables y funciones que habilitan características específicas para cada tipo de gesto. Por ejemplo, si utilizas el gesto de pellizco o pinch para aumentar el tamaño de una foto, es de gran ayuda tener la propiedad scale para conocer exactamente el valor de escala que aumentará el gesto a esa foto. De igual forma, la variable velocity dirá la rapidez con la que el usuario ha hecho este gesto de aumentar, siendo muy útil esta información para añadirle una animación muy atractiva acorde a la velocidad del gesto. Las subclases disponibles son:

  • UITapGestureRecognizer
  • UIPinchGestureRecognizer
  • UIRotationGestureRecognizer
  • UISwipeGestureRecognizer
  • UIPanGestureRecognizer
  • UIScreenEdgePanGestureRecognizer
  • UILongPressGestureRecognizer

En el siguiente vídeo podrás ver el contenido de UIGestureRecognizer en Developer Documentation:

VÍDEO UIGestureRecognizer Apple Developer Documentation con URL YouTube: https://youtu.be/jBbNsJLkL8s

 

Ahora que ya identificas los nombres de los gestos en español e inglés, así como la información que Apple ofrece para poder implementar el código para los gestos en una aplicación, llega el momento de ver un ejemplo real. En la segunda parte de este artículo podrás ver en detalle cómo escribir el código Swift necesario para pulsar sobre un objeto y moverlo por la pantalla. Además, este Playground lleva una serie de animaciones para hacer más atractivos los eventos táctiles.

Aquí puedes ver la Live View del Playground que programarás paso a paso en la parte 2 con Xcode 10 y Swift 4.2:

VÍDEO Playground Live View gestos iOS pulsar y arrastrar con URL YouTube: https://youtu.be/6_yMXV77z5Y

¿Quieres aprender más?

Experto Universitario Innovación usando la tecnología iOS con programación Swift – Proyectos Europeos

Icono Experto Universitario Innovación usando la tecnología iOS con programación Swift - Proyectos Europeos

Experto Profesional Aplicaciones iOS con Swift para Dispositivos Móviles

Icono Experto Profesional Aplicaciones iOS con Swift para Dispositivos Móviles

Programación Swift y sus nuevos paradigmas

Icono Programación Swift y sus nuevos paradigmas

Desarrollador de elementos iOS

Icono Desarrollador de elementos iOS

Creación profesional de aplicaciones desde la idea hasta el App Store

Icono Creación profesional de aplicaciones desde la idea hasta el App Store

Autor: Pedro Hernández.

El proyecto POSTDATA ha nacido para crear un puente digital

POSTDATA es un proyecto financiado de ERC Starting Grants de investigación en humanidades digitales que busca comparar las distintas tradiciones poéticas utilizando la tecnología de la web semántica.

El proyecto POSTDATA “Poetry Standardization and Linked Open Data”, dirigido por Elena González-Blanco García y Salvador Ros Muñoz, es un proyecto del Consejo Europeo de Investigación (European Research Council) de más de un millón de euros con una duración de cinco años (inicio mayo 2016) en los ámbitos de la Ciencia y las Humanidades digitales.

El proyecto se ha convertido en líder de un programa pionero que suma a la Filología investigadores del ámbito de la documentación, la informática, la lingüística computacional y la tecnología de la web semántica y  los datos. El proyecto está integrado en el Laboratorio de Innovación en Humanidades Digitales de la UNED (LINHD), centro pionero en España y en español en este campo.

EL proyecto:

La necesidad de estandarización viene de la mano de la importancia de intercambiar conocimiento y fomentar el entendimiento entre los diferentes campos. Las disciplinas científicas establecieron de una forma temprana protocolos y lenguas para realizar ese trasvase de información, creando unos estándares que fueron rápidamente adquiridos y adaptados para resolver sus problemáticas específicas. Las áreas de humanidades y la cultura han seguido, sin embargo, un camino independiente en el que la creatividad y la tradición juegan un papel esencial. La literatura, y especialmente la poesía, constituyen un claro reflejo de esta idiosincrasia. Desde el punto de vista filológico, no hay un sistema uniforme de analizar, clasificar o estudiar las diferentes manifestaciones poéticas, y la divergencia de teorías es aún mayor cuando se comparan diferentes escuelas poéticas correspondientes a distintas lenguas y períodos. El proyecto POSTDATA ha nacido para crear ese puente digital entre los acervos culturales tradicionales y el mundo creciente de los datos. El proyecto se centra en el análisis, clasificación y publicación de la poesía aplicando metodologías de análisis propias de las Humanidades Digitales, como la codificación en XML-TEI, para buscar la estandarización. Los problemas de interoperabilidad entre las diferentes colecciones poéticas se resuelven utilizando tecnologías de la web semántica para enlazar y publicar conjuntos de datos literarios de forma estructurada en la nube de datos enlazados.

La ventaja de convertir la poesía en datos disponibles en línea legibles para máquina es triple: en primer lugar, la comunidad académica tendrá una plataforma digital accesible para trabajar con corpora poéticos, contribuyendo al enriquecimiento de los propios textos; segundo, esta forma de codificar y estandarizar la información poética, será una garantía de preservación para poemas conservados solamente en libros impresos, o incluso transmitidos oralmente; y tercero, los conjuntos de datos y los corpora estarán disponibles en acceso abierto para su uso con otras finalidades, como la educación, la difusión cultural o el entretenimiento.

Para lograr este fin, se ha creado un laboratorio de poesía dentro de la plataforma que permite a los usuarios aplicar las últimas tecnologías del lenguaje y de la lingüística computacional para analizar los datos poéticos. Algunas de estas herramientas incluyen un analizador métrico que detecta la estructura silábica de las estrofas y los patrones acentuales, el reconocimiento de entidades nombradas para extraer lugares, fechas y personas mencionadas, la combinación de lematizadores y parsers para identificar las estructuras sintácticas con propósitos poéticos y el análisis de sentimiento para descubrir emociones y sentimientos en los poemas. La combinación de todos estos procesos en el mismo entorno mejorará y facilitará el análisis a los investigadores, generando nuevas aplicaciones, como la detección automática del género poético o el análisis de figuras retóricas y estilísticas. .

Uno de los objetivos del proyecto es proporcionar a la comunidad científica de poesía los medios para que puedan publicar los resultados de su investigación como datos abiertos enlazados (LOD) y de esta manera, poder explotar las ventajas que ofrece este tipo de recursos, propios de la web semántica (la publicación de datos que puedan ser procesados por maquinas inteligentes).   

Siguiendo este objetivo, el proyecto ha diseñado un modelo de datos que contiene los conceptos necesarios para poder desarrollar investigación en poesía europea. Al ser esta una tarea muy ambiciosa (abarcar todas las lenguas, periodos, etc de la poesía europea), es necesaria la colaboración de investigadores de todas las tradiciones poéticas de Europa para que validen nuestro trabajo.

Con este fin el proyecto ha desarrollado un formulario que, a través de la inserción de datos resultantes del análisis de los expertos, comprueba que el modelo de postdata no tenga ninguna laguna conceptual.

Enlace al formulario http://postdata-model-validation.linhd.es/

Gracias a este proceso de validación de nuestro trabajo, podremos poner a disposición de la comunidad investigadora en poesía, un modelo ontológico para datos abiertos enlazados.

DH@Madrid Curso de Verano 2018: “Aplicaciones y posibilidades del procesamiento del lenguaje natural para la investigación en HD”

La UNED a través de su oferta formativa de cursos de verano 2018 y organizado por el LINHD y el proyecto ERC POSTDATA, ofrece el curso “Aplicaciones y posibilidades del procesamiento del lenguaje natural para la investigación en Humanidades Digitales”

Este curso se propone ser una introducción al Procesamiento del Lenguaje Natural centrado en su aplicación a los problemas propios de la investigación en Humanidades Digitales. Su meta es introducir a los estudiantes con una formación en humanidades o ciencias sociales el contenido técnico buscando un enfoque claro y diverso, haciéndoles ver las distintas posibilidades a la hora de encarar su trabajo o investigación.

El curso de verano de Humanidades Digitales de la UNED se celebra anualmente desde 2014. Está dirigido todos aquellos interesados en métodos digitales de investigación aplicados a las humanidades, y centrado principalmente en personas con formación humanística, pero abierto a todo aquel interesado.

El curso se oferta tanto de forma presencial como online en directo y en diferido. Del 9 al 11 de julio de 2018 en la UNED.

 

Si no dispones de tiempo para abordar en profundidad tu formación durante el año o quieres especializarte, esta es una buena oportunidad de aprender y aprovechar las vacaciones para afrontar la nueva temporada con un perfil profesional más completo, con nosotros.

 

Mas información

Presentación de trabajos de Helena Bermúdez Sabel y Sulema Rodríguez Roche

La investigadora e integrante de POSTDATA, Helena Bermúdez Sabel, junto a la profesora de la Universidad de la Habana, Sulema Rodríguez Roche, presentarán el próximo miércoles 11 de abril, sus trabajos de tesis doctoral en la Facultad de Ciencias Económicas y Empresariales de la UNED.

Moderado por la Profesora Clara Martínez Cantón, Helena Bermúdez presentarán su tesis sobre lingüística histórica y acdótica: edición digital del corpus trovadoresco gallego- portugués y, por su parte, Sulema Rodríguez, expondrá su trabajo sobre patrimonio digital cubano: propuesta de catálogo de datos enlazados para la Revista Infantil Pulgarcito, que ha realizado junto a Luis Miguel Rondón.

 

El evento tendrá lugar el 11 de abril en el salón ECO2 de la Facultad de Ciencias Económicas y Empresariales de 11 a 12hs.

 

 

 

Crónica del II Congreso Internacional de Humanidades Digitales Hispánicas

Las humanidades digitales buscan nuevas plataformas tecnológicas para promover y difundir la investigación ligada a las Humanidades Digitales desarrolladas en España. Aboga por establecer relaciones entre investigadores y expertos, nacionales y extranjeros, que desarrollan y utilizan estas herramientas en su trabajo.

CQigvYAWUAAbbLV                                       CQtTnSGW8AAmzqa

Del 5 al 8 de octubre, ciento cuarenta congresistas y ponentes se reunieron en la facultad de Humanidades y Ciencias Políticas de la UNED en Madrid, en el II Congreso de Humanidades Digitales Hispánicas. Las alternativas propuestas desde Comunicaciones, Paneles y Pósters resultaron muy interesantes y variadas. Como la temática es muy compleja, las alternativas y propuestas vinieron de diversas disciplinas, por eso en el Congreso además de Filólogos, Historiadores, Historiadores del Arte y Filósofos del ámbito académico y humanístico también participaron ponentes de disciplinas muy variadas como Informáticos y Diseñadores entre otros, que trabajan en común para ofrecer increíbles proyectos que, combinando las diferentes áreas, acercan las nuevas tecnologías al ámbito de las humanidades.

Apoyaron estos proyectos de Humanidades Digitales diferentes organismos e instituciones delCQoLqJvWIAEhaQb ámbito público y privado, universidades e instituciones que respaldaron todas estas iniciativas.

Para poder avanzar en esta novedosa disciplina hay que partir del conocimiento, de lo que se está haciendo y estar informados; de compartir ideas pueden surgir otras muchas más, y en eso estuvimos durante los tres días. Para ello se organizaron cuatro sesiones plenarias con ponentes de reconocido prestigio internacional, 46 Comunicaciones Largas, 26 Comunicaciones Breves, 6 sesiones de Paneles y 10 Pósters en los que se expusieron los diferentes proyectos de investigaciones.

 

No fue nada fácil elegir entre tantas comunicaciones, paneles y pósters, a cada cual más interesante y muchas en sesiones paralelas. Durante los próximos días a través de la página web del Congreso; http://hdh2015.linhd.es/ podéis visualizar algunas de estas ponencias y si queréis profundizar más, en la web están recopiladas todas las propuestas por autores. También está a vuestra disposición el Ebook que se ha realizado de todas ellas.

Para completar el congreso y compartir ocio, experiencias e interesantes debates de muchas de las sesiones, disfrutamos de la visita guiada al Madrid de los Austrias y una cena de clausura del congreso, donde se entregaron tres premios a las mejores propuestas patrocionados por oXygen.

 

Como coCQzTZ7yWUAA9fU8lofón final el día 8 con EADH Day, la primera conferencia Internacional de Humanidades Digitales Hispánicas, de ámbito y repercusión internacional donde se expusieron 20 propuestas.

Desde LINHD como organizadores del Congreso queremos agradecer a todos los participantes su paciencia y cariño que nos han demostrado cada día y también queremos pedir disculpas si en algo hemos fallado. Esperamos que disfrutarais igual o más que lo hemos hecho nosotros.

Gestores Bibliograficos

LINHD colabora con el programa “La educación al revés”

El programa “La educación al revés”, tendrá lugar en el período comprendido entre el dos de octubre y el veintisiete denoviembre. LINHD colaborará como en otras ocasiones, participará nuestra directora Elena Gónzalez-Blanco junto a Jeffrey Schnapp de Harvard.

¿Qué es “La Educación al revés”?

Es una iniciativa privada de docentes y profesionales vinculados al mundo de las Humanidades y la empresa para conjugar experiencia y conocimientos en favor de la Innovación aplicada a la Educación.

Iniciado por  Liceus, líder en el fomento de las Humanidades en Internet desde 2001 con el apoyo y asesoramiento en el diseño del proyecto por el equipo humano de INDRA Business Consulting y con la colaboración del METALAB de Harvard y el LINHD de la UNED.

¿Qué hacen?

“Adquirir conocimientos, técnicas y herramientas que permitan a los asistentes innovar en el modelo de negocio de sus centros educativos”.

“Idear y desarrollar algunas de las propuestas innovadoras que se trabajarán en las sesiones”.

“Mejorar la actitud innovadora y aprender a integrarla en el ADN de la organización”.

A quién nos dirigimos: Nos dirigimos a instituciones privadas y públicas de Formación interesados en promover el espíritu innovador a través de acciones o programas que precisen formar a responsables o directivos para un cambio cualitativo en su competitividad a través de la INNOVACIÓN en la empresa

Titulo Propio

El grupo objetivo son directores de empresas de formación, directores académicos, directores de programa, profesores y otros responsables de instituciones públicas o privadas en el ámbito de la formación.

El proyecto está planificado de acuerdo a 6 hitos formativos en los meses de octubre y noviembre:

  1. Sesión 1: La innovación y la creación de valor. (2 / octubre / 2015)
  2. Sesión 2: El ADN apropiado para la generación de ideas. (16 / octubre /2015)
  3. Sesión 3: Herramientas de Innovación: Lean Start Up y Lean Canvas. (30 /octubre / 2015)
  4. Sesión 4: Tecnología y gamificación como drivers de la ideación. (13 / nov / 2015)
  5. Sesión 5: Financiación de proyectos de innovación (20 / nov / 2015) Sesión gestionada e impartida por Liceus.
  6. Sesión 6: Cierre (27/ nov / 2015)

El horario de las sesiones será de 11:00 a 15:00 en la Sede del CLUB 567 en la c/Jorge Juan, 15 de Madrid

Para más información en la web:

http://www.innolabs.eu/
innolabedu@liceus.com

Semantia Lab, empresa de procesamiento de lenguaje natural

En LINHD damos la bienvenida a un nuevo equipo de compañeros de la UNED que comienzan a trabajar en colaboración con nosotros. Está coordinado por José María Luzón y Gullermo de Jorge Botana, ambos profesores de la Facultad de Psicología de la UNED. El resultado de sus investigaciones durante casi una década ha dado lugar a Semantia Lab, una empresa de base tecnológica especializada en el procesamiento de lenguaje natural en cuya actividad profesional están presentes los principales y más actuales avances de la Lingüística computacional, la Inteligencia artificial y la Psicología Cognitiva (Educación). Semantia Lab es una spin-off de la Universidad Nacional de Educación a Distancia (UNED).

 GallitoAPI 2 

Los productos y servicios de Semantia Lab poseen infinidad de aplicaciones con alto valor añadido, tanto para el sector industrial como para el de servicios y profesional (I+D+i, consultoría, marketing, etc.), como por ejemplo, y entre otras: recuperación automática de información mediante indización, clasificación y categorización de minería de datos textuales; monitorización de información de medios sociales; búsqueda, identificación, extracción de términos clave y documentos en función de sus significados parciales o globales.

 

Semantia Lab ha desarrollado un software especializado como servicio, denominado GallitoAPI, que incluye un potente motor de análisis lingüístico de lenguaje natural capaz de adaptarse fácilmente a contextos de actividad concretos a fin de aumentar su efectividad. Este API dispone de numerosas funciones que pueden ser combinadas a modo de soluciones a medida para la resolución de necesidades específicas: categorización ad-hoc, evaluación de textos, resumidor, indización eficiente, formateo numérico de textos para búsquedas rápidas en bases de datos, agregador y comparador, etc. Su elevada capacidad de procesamiento junto con las metodologías de análisis semántico que integra, lo convierten en una herramienta empresarial de gran valor estratégico.

G-Rubric 3

Un buen ejemplo de solución específica para el ámbito educativo y diseñada a partir de varias funciones de GallitoAPI es G-Rubric: un desarrollo web para evaluar automáticamente textos discursivos (respuestas abiertas) y ofrecer retroinformación (feedback) personalizada e inmediata. GallitoAPI utiliza el protocolo SOAP como estándar de intercambio y puede integrarse de manera sencilla en cualquier plataforma o sistema web corporativo.

 

GallitoAPI y G-Rubric son marcas registradas de Semantia Lab.