y en la sección 2023, una odisea en el ciberespacio con nuestro David particular, David Marzal. Hola David, ¿qué nos traes hoy? Buenas, pues hoy en vez de un tema completamente nuevo, la idea es profundizar un poco en los dos temas anteriores que traté. En el primer episodio de verdad, no en el de presentación, hablé de transcripción y subtitulado y en el segundo, de Wheelmap y cómo mapear en mapas libres a características de
accesibilidad. Pues en este traigo por ejemplo la manera de consumir los datos que nosotros podemos poner en OpenStreetMaps para gente con problemas a la hora de movilidad o de visibilidad. Entonces, pondré por más todas las capturas de pantalla que he hecho y ahora mismo más o menos os voy a describir las opciones que tiene la aplicación de OsmAnd, que está en F-Droid, que es completamente libre y también está en Google Play y tiene ahí opciones
de pago. Entonces, una de ellas es, tú puedes en StreetMaps y en Wheelmap, tú puedes marcar si un sitio es accesible para silla de ruedas completamente limitado o no. Pues tú en esta aplicación de navegación, tú le dices, yo quiero buscar un restaurante por ejemplo y en las opciones que tiene arriba a la derecha te deja filtrar. Entonces, tú puedes filtrar el restaurante, si fuma, si no fuma, qué tipo de comida tiene,
un montón de opciones. Y la última del todo, se llama accesible para silla de ruedas. Entonces, tú puedes mostrar sólo los restaurantes que sí sean accesibles, que esté señalado, que no sean accesibles o que sea limitado. Esa es una de las opciones. Otro, lo que tiene también es que cuando tú buscas un restaurante sin filtro ninguno, él en la información del restaurante te va a decir si es accesible o no. Luego, a la hora de la movilidad, tiene
varias opciones. Tú cuando haces una ruta, tú puedes decirle quiero ir a pie desde donde estoy al restaurante y él te va a decir que vas a tardar X tiempo. Tú puedes meterte en parámetros del vehículo, aunque no sea muy intuitivo, el vehículo también cuenta como tú mismo para andar. Aceptamos pies como vehículo. Efectivamente. Tú estás propulsado por ti mismo, pero para esta aplicación tiene en el mismo sitio velocidad predefinida. Funciona
por perfiles. Tú tienes un perfil coche, un perfil bici, un perfil, tiene 15.000 perfiles y te puedes crear los tuyos. En el perfil a pie, yo lo que he hecho es ir probando y entonces puedes cambiarse y decir yo voy a dos kilómetros por hora o a tres o a cuatro o a cinco. Y entonces se adapta el tiempo y la ruta a tu ritmo y no a que él piense que puede ir cualquier persona
que va al ritmo de la media. Yo, por ejemplo, voy a un ritmo bastante más bajo que el de mi mujer y mi mujer va a un ritmo bastante más rápido que el de la media. Y luego también para el ritmo también influye que te deja configurar si quieres que tengas en cuenta la inclinación, la pendiente del camino. Entonces tú puedes decirle que tenga en cuenta si hay un sitio que está con, yo sé, 300 metros de altitud y va a tener que subir una cuesta del Copón, pues eso lo mismo.
Hay gente que o por silla de ruedas o porque es difícil acceso, no le conviene. Entonces te lo tiene en cuenta. Porque le puedes decir que a la hora de hacer la ruta se salte todos los caminos que tengan escaleras. Y la última opción, si me acuerdo, era pavimento táctil. Preferir las calles que tengan señalado en el suelo para problemas con deficiencias visuales, si van a estar marcados donde están los pasos de peatones o si está todo
bien señalizado. Esas son todas las opciones que he ido viendo de las que puedes estar usando datos que la gente haya metido en OpenStreetMaps y podemos así configurar la ruta de la forma más adecuada para nosotros. Claro, esto al principio puede ser así un poco abrumador, pero esto te lo vas configurando poco a poco, te lo pones en el perfil y ya lo dejas puesto
para siempre. O sea, podrías creerte un perfil específico que sea perfil accesibilidad a pie y esto te lo dejas puesto. Sí, porque si no habéis usado nunca OsmAnd, la primera vez que lo usas te puede echar para atrás porque tiene muchísimos menús y muchas veces no sabes dónde hay que mirar o dónde hay que buscar. Pero bueno, poco a poco te vas familiarizando con él.
Sí, yo aparte las capturas de pantalla las colgaré en Mastodon porque son unas cuantas y de todas maneras si hay alguien que no lo encuentre, si me escribe por Mastodon, yo le digo cómo llegar porque prácticamente todas las opciones que he dicho, la mitad
están en sitios diferentes. O sea, no es que te metas en un menú y ahí están todas, sino que una está cuando vas a hacer la ruta, otra está en el perfil de a pie, otra está en las opciones no sé qué, con lo cual hay que ir rebuscando un poco en la aplicación. Pero bueno, con las fotos que yo he hecho se ve más o menos cuál es la opción principal. Por ejemplo, en parámetros de ruta, peatón, eso es lo
primero que hay que buscar. De ahí ya se ve que es la opción preferir y en preferir marcamos preferir pavimento táctil. Con las fotos se llega mucho más fácil. No recuerdo si los perfiles los dejaba exportar, la versión gratuita. La verdad es que me suena... Bueno, la F-Droid cuando tú la arrancas te dice que es la Pro. O sea que yo creo que esa sí que te deja. Ya sabéis, si hay dos opciones siempre elegir la F-Droid antes que la de Google Play por muchos motivos.
Queda pendiente que seguiré buscando cuando encuentre la manera de resaltar lo que pueden meter en OpenStreetMap de las aceras, que te deja decir si tiene un salto muy grande o no, o si es una rampilla o si está a pie de suelo. Eso no lo he visto específicamente que aquí te lo deja tener en
cuenta. No sé si lo tiene internamente, pero seguiré buscando una manera de hacerlo accesible fácil como esto, porque sí que hay páginas webs que haciendo una especie de consulta SQL de la base de datos te lo dice, pero eso no es accesible para ir con el móvil y de repente decir "quiero ir a este sitio" y que me lo tenga en cuenta. Muy bien. ¿Qué más nos traes hoy? La segunda parte es profundizar en lo que estuvimos hablando de la transcripción y
subtitulado. Estuvimos hablando de que hay un PostCasting 2.0 que te deja meter etiquetas nuevas en el feed y tiene características como que salgan unos circulitos con las personas que están en el episodio o, sobre todo, lo más útil ahora mismo es tener una transcripción, o sea, todo el texto que se está hablando y el subtitulado de que en cada momento que tú estás hablando está apareciendo la frase que estás diciendo.
Pues esto que lo soporta en alguna aplicación, que dejamos en el anterior episodio un enlace, Podverse, Antennapod está a punto de ponerlo. Yo me sé las libres, AnyTime, PostCastPlayer, pero hay muchas más privativas también. Las cosas que son son unas aplicaciones que comparten un 8 o un 10% del
mercado. La mayoría usa Apple Podcasts y Spotify, aunque yo recomiendo tener las dos instaladas para poder tener las novedades en las buenas que son de software libre y son punteras en todas las etiquetas estas nuevas.
Luego de repente ha salido Apple Podcasts y ha dicho que a partir de marzo, cuando venga iOS 18, que ahora mismo están en beta, ellos por su cuenta van a ponerle subtítulos a todos los podcasts que estén en la aplicación de Apple Podcasts, ya sea el nuestro o ya sea el de la empresa más gorda. Ellos se van a encargar de transcribirlo y ponerle subtitulado con el marcado de tiempo donde puedes pinchar en la palabra y se va al momento.
Cierto, pero de tal forma no son innovadores porque ya casi todas las plataformas ya estaban metiendo las transcripciones de los programas, tanto en los podcasts de audio como en los vídeos. Sí, lo bueno que ha hecho Apple es que ha respetado lo que es el estándar del RSS y del podcasting y ellos por defecto te lo van a hacer con su IA que ellos estén usando, porque en realidad
ellos ya lo hacían. Porque Apple lo que hacía era transcribir los textos, ver de qué hablaba tu podcast y según eso pues hacer las recomendaciones o cerrarte el podcast si no le gustaba, pues en vez de quedarse sin formación para ver los temas de lo que va el episodio en concreto, lo que han hecho es ponerlo como subtítulo y la diferencia de otras plataformas, Spotify lo hace con 3 o 4 podcasts sueltos, pero Apple lo hace con todos los que estén en español, inglés
y 4 o 5 idiomas más, y te va a dejar respetar las transcripciones que tú hagas. Nosotros en este podcast, por ejemplo, hacemos transcripciones con Whisper, que es de lo que yo hablé en el anterior episodio. Si la lleva en el feed, carga la del feed. Apple es un poco suya y lo va a hacer al revés. Lo normal sería lo que tú dices. Detecto que tiene ya una transcripción,
pues uso esa. Apple como es muy suya, dice yo por defecto siempre uso la mía, pero te dejo que tú como creador del podcast marques si quieres usar las tuyas. Entonces, si tú haces eso, creo que se llama Apple Connect. Es una página web que tiene Apple donde tú manejas el directorio de Apple. Este programa es mío y entonces
yo lo puedo configurar. Pues tú hay marcas que quieres por defecto los tuyos y lo que hará es buscar la etiqueta podcast 2.transcript, que es el estándar que hay moderno, que es el que nosotros usamos. Si lo encuentra, pondrá los nuestros y si no lo encuentra, pondrá los suyos. Con lo cual, los nuestros normalmente están más trabajados porque su guía no está mal para ser una guía
que te dan gratis. Acierta bastante, pero ellos no van a estar como yo echándole una hora viéndose si hay una palabra que se ha equivocado, que es súper obvia y sustituyéndola a todas las veces que se repita. Siempre es mejor usar los tuyos propios porque sobre todo con los nombres o nombres comunes,
palabras concretas. Yo esta mañana estaba haciendo una edición y yo no sé si he arreglado 500 palabras que al final a lo mejor son 50 que se repiten 10 veces, pero siempre es mejor poder hacerlo tú que lo vas a hacer con más cariño. Y nosotros aún no lo hacemos, pero tú podrías poner el nombre de quien está hablando. Si tuviéramos tiempo infinito, yo podría decir ahora está hablando David, ahora habla Jorge. Eso Apple no
te lo va a hacer nunca. Tú sí puedes hacerlo en tu fichero de transcripción si tienes tiempo o pagas por una aplicación que te lo haga automáticamente. Lo de Apple es a partir de finales de marzo, pero ahora mismo nuestros oyentes podrían estar utilizándolo ya si usaran una aplicación moderna en vez de Apple Podcast. O sea, si esto lo escuchan en Podverse, ya pueden ver los subtítulos.
Quien no quiera salir de Apple Podcast por el motivo que sea, que sepa que a partir de marzo va a tener la accesibilidad de tener todos los subtítulos, buscar palabras en el episodio y que se vaya al momento en concreto o ir leyendo mientras que pasa. Y ya corto con lo que es la transcripción y ya otros días traeré otras etiquetas que tiene el podcasting 2.0. Como siempre, David Marzal, apostando fuerte por el podcasting 2.0. Bueno, hasta aquí la sección. Gracias, David.
Un saludo, hasta luego. Y en la sección de "Otros mundos, otras realidades" estamos con Thais Poussada, como es costumbre. Hola, Thais. Hola. Hoy creo que vienes con invitado, ¿verdad? Hoy sí. Vengo muy bien acompañada y tenemos con nosotros a Manuel Lagos, que es investigador del Centro de Investigación en las TIC del CITIC de la Universidad
de La Coruña. Y es un placer que esté con nosotros, pero es un estudiante de doctorado al que dirijo yo y, bueno, está desarrollando una aplicación muy interesante con realidad virtual para facilitar intervenciones con personas que tienen algún tipo de discapacidad. Hola, Manuel. Hola, ¿qué tal? Primero, gracias por la invitación.
Para mí siempre es un placer poder explicar un poco en lo que estoy trabajando y dar a conocer una tecnología como es la realidad virtual, que se escucha mucho en muchos sitios como la inteligencia artificial, pero creo que aún puede generar algunas dudas y, bueno, si puedo aportar mi granito de arena, pues genial. No lo inventó Apple, ¿no? La realidad virtual. No, no lo
inventó Apple. Aunque ahora esté ahí de moda y lo estén saturando con las gafas de realidad virtual, que son una maravilla, que son otro mundo, no, no son los primeros. Tampoco es libre totalmente, porque las gafas que utilizamos al final, pues son de comerciales, son gafas comerciales, ¿vale? Pero los desarrollos que está haciendo Manuel sí que serán libres en su día. Bueno, Manuel es ingeniero en informática, tiene un grado en informática, luego hizo
un máster en robótica. Yo a Manuel lo conocí realmente cuando estaba haciendo su trabajo fin de grado y, precisamente, estaba haciendo este desarrollo de realidad virtual. Ahí fueron un poco sus inicios y a mí me gustaría preguntarle, pues, por qué él, en su día, se decidió a hacer algo en realidad virtual para personas con discapacidad. Pues es una buena pregunta. Tengo que volver unos añitos atrás y fue cuando estaba acabando
la carrera. Normalmente, no sé cómo es en el resto de carreras, pero en informática salen unos listados con diferentes propuestas, con diferentes temáticas de trabajos de fin de grado. Y, normalmente, lo que más abunda suelen ser desarrollos, a lo mejor, de aplicaciones de gestión, aplicaciones para, imagínate, un restaurante, un
gimnasio, etcétera. Pero entre, bueno, esos trabajos, a mí me destacó uno que era, lo vi como muy práctico y muy visible en la sociedad, y es, pues, el tema del TFG, que era, pues, realidad virtual aplicada a las personas con discapacidad. Entonces, yo, la verdad, es que fui directo por él. De hecho, no miento si digo que tenía miedo que, bueno, pues, se me adelantara a alguien porque, al final, ahí escoges por nota. Pero, bueno, finalmente tuve suerte y conseguí
hacer ese trabajo. O sea, a mí me motivaba muchísimo porque yo antes, antes de comenzar, yo pensaba, bueno, va a ser algo que, si lo logro hacer, va a tener como una repercusión, voy a ver como el resultado muy cercano, muy fácil a nivel de
la sociedad. Y, nada, a partir de ahí, pues, también fue ya cuando me encontré con TICE porque, bueno, yo sé un poco la parte informática, pero tampoco sabía si las ideas que tenía yo, pues, iban a tener utilidad para trabajar algún tipo de habilidad física o cognitiva. Y fue un poco ya cuando hablé con TICE, ¿qué te parece esto? ¿Cómo puedo enfocarlo? Y, bueno, me echó ahí una mano y fue, pues, creo que fue como nos conocimos ahí en ese punto. ¿Cuáles fueron los resultados
de ese trabajo? Pues, los resultados fue hacer una aplicación de realidad virtual basada en actividades de la vida diaria. El escenario que hemos escogido ha sido, pues, una casa y las actividades se desarrollaban en una cocina y en una sala. En total se han planteado 4, 4 tareas relacionadas con, más bien, habilidades físicas y en concreto con movilidad de las
manos. Entonces, una de ellas era, por ejemplo, pues, practicar lo que es el manejo de un cuchillo y un tenedor con las ventajas que nos ofrece la realidad virtual. La más notoria quizás es la seguridad, es decir, no nos vamos a cortar con el cuchillo porque no existe, es virtual. Entonces, bueno, la persona lo que tiene que hacer es agarrar el cuchillo, el tenedor y hacer cortes sobre la comida. Esa es una para un poco practicar, pues, ese manejo de cubiertos.
Otra era abrir un grifo. Nos planteaban que era interesante practicar lo que es el movimiento rotacional de la mano. Entonces, pues, desarrollé un grifo y lo que tenía que hacer la persona, pues, es abrirlo, llenar una jarra con agua y volver a cerrarlo. Y después otra también relacionada con las manos era, pues, algo muy simple, colocar varias especies de fruta en un frutero. Pero bueno, lo que le permitía a la persona, pues, practicar
diferentes tipos de agarre. Y ya el último, aunque también implicaba trabajo físico, sí que estaba enfocado más a nivel cognitivo. Y bueno, la persona estaba otra vez, pues, en una cocina. Tenía en una mesa varios tipos de alimentos, varios tipos de utensilios y tenía que escoger entre ellos cuáles consideraba adecuados para preparar
un desayuno. Esas serían las cuatro actividades y, bueno, pues, son cosas que nos podemos encontrar en el día a día, pero que algunas personas, pues, pueden tener alguna pequeña dificultad. Y la idea, pues, es mejorarla a través de la vida virtual. Por lo que veo, es una especie de pequeño gimnasio virtual. Exacto. Un poquito, sí. Aquí lo enfocamos un poco a actividades diarias, pero sí.
Claro, la idea es simular los escenarios que nos podemos encontrar, pues, en esas actividades de la vida diaria de una forma controlada y segura. Este fue su trabajo fin de grado, ¿no? Pero ahora la propuesta que estamos desarrollando en su programa de doctorado es, pues, personalizar. Es decir, pues, que podamos presentar un escenario, pero con actividades adaptadas a las capacidades y necesidades que tenga la persona en su proceso de intervención.
Exacto. Eso también es una característica que nos permite a nivel tecnológico la realidad virtual. Nosotros podemos hacer como una pantalla de configuración inicial y modificar ciertos parámetros. Pues, por ejemplo, nivel de dificultad podría ser, pues, imaginemos en ese escenario de la cocina cuántos elementos le vamos a poner a la persona para trabajar, para elegir.
Es decir, a lo mejor empezamos con 4 o 5, pero podemos ir aumentando a 10, a 15 y así otros parámetros que se puedan ir adaptando a cómo progresa la persona. Manuel, ¿me puedes comentar así a nivel técnico qué motor usas? ¿Dónde se va a poder utilizar este...? Bueno, yo lo llamo gimnasio. No sé qué nombre le habéis dado. Sí, sí. Yo desde que empecé en esto trabajo con Unity. Es un software gratuito. Solo hay que pagar a partir ya de ciertos ingresos, pero no es nuestro
caso. Entonces, se puede descargar, instalar y comenzar a trabajar. Y después, en cuanto a las gafas, nosotros empezamos con unas gafas llamadas HTC Vive. Son unas gafas que van conectadas a un ordenador y estos escenarios de los que he hablado estaban desarrollados para ese modelo de gafas, pero actualmente lo que estamos haciendo ya es destinado a las MetaQuest, a las de Facebook o conocido como Meta también.
Y un poco estamos dirigiéndose a ese tipo de gafas porque creemos que son mucho más sencillas de utilizar. Cualquiera las puede tener en su hogar. Incluso un centro que trabaja con personas con discapacidad también lo puede manejar de forma muy sencilla. No requiere una instalación compleja. No requiere un ordenador externo. En resumen, tú te llevas una maletita pequeña con las gafas, los mandos y ya puedes comenzar a trabajar. ¿Cuánto ocupa, por curiosidad,
la aplicación? La aplicación, unos pocos megas. Evidentemente, cuando estás desarrollando sí que ocupa mucho más, pero al final, cuando generas como esa aplicación, como si fuera un móvil Android o iOS, lo que sea, pues ya es solo esa aplicación pequeñita que son unos megas. ¿Sería viable utilizarla en los móviles con los adaptadores para convertirlo en una gafa? Visualmente no sería, iba diciendo,
muy complicado. Bueno, podría hacerse, pero ahí el límite que tenemos es la interacción. Que claro, a través de los móviles hay a veces algún tipo de montajes o de no sé cómo llamarle. Bueno, un tipo de gafas donde tú puedes incrustar el móvil y visualizar en 3D una pantalla de un móvil. Pero claro, normalmente son experiencias únicamente visuales, no te permiten manejar algo como mando, interactuar. Perderíamos esa parte.
Claro, ese es el principal, digamos, plus que nos ofrecen este tipo de gafas, ¿no? Es decir, y toda la programación que está haciendo Manuel, al final, no es solo un escenario donde visualizar algo y ya está. Es un escenario donde interaccionar con los objetos que hay en ese escenario, ¿no? Entonces, toda esa interacción precisa de una programación que es la que está haciendo
Manuel, ¿no? Entonces, con las gafas, o sea, con el móvil, cuando utilizamos esas gafas de cartón para utilizar el móvil como visualizador, perdemos ese toque de la interacción. Con lo cual, bueno, pues, o sea, sí que se podría hacer eso, lo que comenta Manuel, a nivel gráfico sería viable, pero a nivel de aplicabilidad y de ver el objetivo realmente, que es trabajar con la persona, diferentes habilidades manipulativas y cognitivas, pues, no se podría.
Podrían funcionar en una Quest 2 o a nivel de potencia necesitaría una Quest 3 para que funcionase completamente bien. Pues ahora mismo los desarrollos que tenemos ahora mismo funcionan en las dos, tanto en Quest 2 como en Quest 3. De hecho, empezamos haciéndola para las Quest 2 y vimos que era totalmente compatible para las 3 también. Digo, porque hoy en día, claro, las Quest 2 han bajado de precio y van a bajar más porque está el modelo nuevo.
Con lo cual, con 100 y pico euros, 200 euros, ya se puede tener unas Quest 2 a un precio más asequible. Sí, es que, de hecho, yo creo que eso es uno de los puntos fuertes a destacar en esas gafas, en las meta, que están a un coste mucho más por debajo de lo que eran las HTC.
Por ejemplo, las HTC con las que trabajamos nosotros, creo recordar que el kit completo rondaba los 1.500 euros y unas Quest, hoy en día es lo que comentas tú, Jorge, unas Quest 2 están súper baratas y ya antes de que serían las 3, para mí ya se consideraban unas gafas económicas. Sí, ya estaban a los 300 o por debajo de los 300 euros. No sé si las has probado en pico cuatro. No, sí que las veo en muchos estudios y demás, pero nunca no las he probado.
También otro de los ventajas que tienen las Quest 2 con respecto a las HTC es que con estas, como comentaba Manuel, no necesitas el ordenador ni tener los sensores colocados de una forma específica, sino que son las gafas que tienen su propio visor y que tienen un sistema operativo independiente, con lo cual no dependes tampoco de ese ordenador
o de tener un espacio tal. Eso lo que nos permite es que si hay un centro de personas con discapacidad, una asociación, etcétera, que tiene estas gafas, se le instala esta aplicación, pues ya están, no necesita tampoco mucho más infraestructura para trabajar. Al decir también que la aplicación todavía no está disponible para su uso, pero la idea es pues eso, colocarla en algún tipo de repositorio para su descarga gratuita.
No sé si te pasa por la cabeza intentar que se publique en la tienda de meta, porque por lo que sé es bastante complicado que se logre, pero no sé si lo vas a intentar o no. Aunque estuvimos hablando hoy. Exacto, exacto. Muy bien traída la pregunta porque justo hablamos hoy de ello. Sí, o sea, a mí me interesaba mucho publicarla en la tienda, también por la facilidad de
instalación. Quiero decir, si al final, es lo que comentaba Thais, estas gafas las puede utilizar en un centro, una persona en su casa, y lo ideal es que tú entres en la tienda de aplicaciones como en un móvil, le des a descargar, instalar y
ya está. Tal como está ahora, es un proceso un poco más complicado porque tienes que meterla como en una sección aparte que está un poco más escondida, configurar las gafas en un modo que es como modo desarrollador porque es una aplicación que aún no está pública. Entonces, bueno, a mí mi intención es esa, que podamos publicarla. Sí que es verdad que yo por lo que estuve informándome es un proceso un poco largo a veces, pero bueno, en eso estamos porque, bueno, ya digo,
es mucho más cómodo. Bueno, si quieres comentar, Manuel, lo que estás trabajando ahora, pues eso, ya no solo son los escenarios dentro de una casa, sino, bueno, pues esos escenarios han ido evolucionando también, y bueno, si quieres comentar un poquito lo que estás
haciendo en estos momentos. Sí, justo lo que hablé es algo que ya está hecho, fue en lo que se enfocó el trabajo de fin de grado, pero después ya metidos en la tesis, como se trata de investigar, hay dos proyectos ahora mismo
en desarrollo. Uno es trabajar lo que es la fuerza de la mano a través de realidad virtual, porque, bueno, a través de una entidad surgió una necesidad de poder trabajar la fuerza y en realidad virtual predeterminadamente los mandos no son capaces de medir un rango de fuerza, es decir, tienen unos botones que tú puedes pulsar o no pulsar, es decir, te dan un sí o un no, pero no saben cuánto
pulsaste ese botón. Entonces, bueno, pues uno de los proyectos en lo que he estado trabajando es en desarrollar un dispositivo externo como una carcasa para el mando de las MetaQuest, entonces habría que colocar ese mando en la carcasa y la carcasa a su vez lleva dos sensores de fuerza y un dispositivo, un pequeño dispositivo como un mini ordenador, podemos decirle, que se conecta por Bluetooth a las gafas y envía los parámetros de fuerza, es decir, si la persona aprieta
más o menos ese mando. Y con ello ya, pues podemos hacer ciertas cosas a nivel, en cuanto a actividades, digamos, es decir, por ejemplo, en lo que estamos haciendo ahora mismo es una actividad muy común del día a día que es fregar los platos. Entonces la persona está en una cocina, tiene varios platos sucios y ¿qué pasa? Que si no hace un mínimo de fuerza al fregar los platos, pues la suciedad no sale.
Entonces de esa manera, pues digamos que la persona se siente motivada a ir frotando y haciendo fuerza a la vez. Para mí lo complicado en esta parte fue tener esa conexión Bluetooth con las gafas y ahora la idea es desarrollar otras actividades, porque una vez tenemos ya ese valor de fuerza, pues podemos enfocarlo a otras
muchas cosas. Por ejemplo, pues podría ser eso, limpiar, pues un cristal o apretar, no tiene que ser a lo mejor una actividad de la vida diaria, podría ser a lo mejor, pues yo qué sé, apretar una pelota o atornillar una mesa, cualquier cosa. Esa sería una de las partes en las que estamos trabajando. Y después otra, es un poco ya distinto, es trabajar en lo que es la movilidad en entornos
virtuales. Normalmente tú cuando estás en un entorno virtual tienes un área de unos metros, unos metros cuadrados, por los que te puedes mover y las gafas te detectan. Pero si te sales de esa, yo le suelo llamar un cubo, como si fuera un cubo grande, dentro del cual si te mueves te detecta, pero si te sales de él ya no
te detecta. Lo que nosotros estamos trabajando es que en incorporar una plataforma, que se llama de movimiento cautivo, es una plataforma deslizante en la que tú te subes, por así decirlo, y los pies como que patinan, entonces puedes andar sobre esa plataforma y lo que te permite es que tú, los pasos que vayas dando encima de esa plataforma, se trasladan a ese mundo virtual y podrías andar ilimitadamente. Y también la idea es publicarlo en abierto. En lo que es la aplicación,
sí. Ahí tengo que decir también, bueno, la ventaja que es eso, que nos podemos mover libremente con lo que supone, por ejemplo, para practicar un entorno urbano. Por ejemplo, estamos en una acera, en una carretera, poder practicar lo que es la interpretación de semáforos, cruzar pasos y peatones. Esas serían algunas de las ventajas que nos ofrecería, pero la desventaja es que esa plataforma ahora mismo sólo es compatible con las gafas
HTC. Entonces, la aplicación sí que va a ser libre, pero claro, si tú la quieres usar, tienes que tener las gafas y la plataforma para poder moverte. Y ese tipo de plataformas no suelen ser baratas. Exacto. Exacto, sí. ¿Cuánto costó la que tenemos en el laboratorio? Mil euros, a lo mejor. Sí, un poquito más, sí. Sí, suelen andar a partir de mil euros. ¿No me habéis dicho nombres de las aplicaciones? ¿No los vais a bautizar? Uf, eso es un… Eso es lo más difícil.
Si quieres estar en la tienda, lo que vende es la foto de la portada y el nombre de la aplicación, es lo que vende. Bueno, pues lo dejamos ahí como sugerencia. Si a alguien se le ocurre alguna sugerencia para ponerle el nombre a esta aplicación, pues bienvenida es. Pero ahora no hemos pensado nada. Bueno, Manuel, y cuando termines la tesis, supongo que te gustaría seguir trabajando en temas relacionados a estos. Pues yo espero que sí, porque
ideas tengo muchas. Me hace falta más tiempo, pero sí que me gustaría seguir en esa línea. Porque creo que al final, si pensamos en nuestro día a día y a lo mejor actividades con las que nos podemos encontrar o situaciones, pues en una calle, en un entorno laboral, en nuestra casa, si nos podíamos practicar con mayor seguridad de la que nos ofrece la vida real, por así decirlo, creo que ahí la realidad virtual puede aportar bastante.
O incluso en hacer que esas actividades sean más motivadoras, que sean más divertidas incluso, y lo que decía antes, y que sean seguras. Incluso alguna vez tenemos hablado a lo mejor de eso, de practicar a lo mejor la conducción o un simulador de conducción. Ya es algo a lo mejor muy grande, pero bueno, que también se podría hacer con realidad
virtual. Y mezclando ya lo que es la parte de gafas con a lo mejor algún dispositivo con volante y palanca de cambio a lo mejor adaptada, etcétera. Espero que a los y las oyentes les haya gustado escuchar esta parte también de desarrollo, que son tecnologías para el
bien común al final. Y bueno, comentaros que nosotros estamos en el grupo de investigación Thalionis, trabajando en el centro de investigación FITIC de la UDC, que bueno, ahí seguimos y cualquier persona que esté interesada en conocer más, pues puede contactar a través de la página web del FITIC o de nuestra página web del grupo Thalionis también. Y escuchar los programas anteriores para saber más sobre lo que estás haciendo. Exactamente, para engancharlo.
Muchas gracias por haberte pasado por aquí, esperamos volver a contar contigo en futuras ocasiones. Cuando lea la tesis. Vale, pues cuando lea prometido. Cuando lea la tesis, vuelvo a comentar los avances. Gracias a vosotros. Y en la sección de accesibilidad web, contamos con Pablo Arias, como siempre. Hola, Pablo. Muy buenas, Jorge, cómo estamos? Muy buenas a todos. Además, vienes de la FOSDEM, que has estado hace poquito. Sí, efectivamente, fue hace
poco la FOSDEM en Bruselas. Una pasada de evento, la verdad. Muchísima gente, muchísimas charlas. No sé si te traes algo relacionado con accesibilidad y tecnologías líneas de allí. Bueno, pues sí, la verdad es que hubo algunas charlas al respecto y fueron superinteresantes, incluso una que hablaba de la ecología y la accesibilidad. O sea que superinteresante que al final hacer las webs de manera accesible son más ecológicas, consumen menos energía, así a
modo de resumen. Pero bueno, hubo una ponencia entera hablando solo de esto. Pues mira, una cosa que podemos comentar de la FOSDEM también es que se firmó un acuerdo entre los principales gestores de contenidos web hechos en PHP, como es el caso de WordPress, Joomla, Drupal
y Typo3. Entonces, se ha firmado un acuerdo de colaboración para tratar de hacer más piña, tener retroalimentación unos de otros y la verdad es que se ha dado una charla allí entre los cuatro representantes de cada uno de estos CMS y la idea es que se puedan unir más. ¿En temas de accesibilidad o en general? No, no, en general. La idea es una alianza general. Sí que es cierto que en muchos ámbitos va a trabajarse la accesibilidad y se va a mejorar en ese
sentido. Por ejemplo, WordPress tiene un editor que se llama Gutenberg, que muchos lo conoceréis, pues están tratando de hacerlo más accesible y además de llevarlo a más CMS. Es decir, que no sea solo para WordPress sino que también esté disponible, pues Drupal, por ejemplo, lo quiere adoptar
para su propio núcleo. Ya ahora mismo hay una solución para poder instalarlo dentro de Drupal, si no me equivoco, pero quieren ir más allá y que esté soportado, digamos, por el núcleo de Drupal. Entonces, este editor ahora sí que es cierto que a lo mejor le hace falta un poquito más de trabajo en cuestiones de accesibilidad, pero si lo utilizamos más CMS, pues siempre podremos colaborar en que se mejore esta parte. ¿Y qué más? ¿Qué más te puedo contar sobre accesibilidad
en la FOSDEM? Pues ahora mismo no se me ocurre más, pero sí que es cierto que hubo más asuntos. Lo que pasa que fue muchísimas charlas, mucha locura, incluso algunas demasiado llenas. Intenté ir a alguna que la sala se llenó tantísimo que fue imposible acceder a ella. Ya de hecho de luego ponen un límite porque eso podría ser incluso ya contraproducente, sobre todo en los tiempos que vivimos de pandemias y demás, pues no es cuestión de apiñar a la gente como sardinas en lata.
Cuéntanos un poquito cómo es el ambiente en la FOSDEM para la gente que no la conoce. Pues el ambiente en la FOSDEM es súper peculiar porque tú vas allí, no tienes que comprar una entrada, simplemente apareces y vas a las charlas que te apetecen. Entonces, la verdad es que hay muy buen ambiente y no tienes que ir a un edificio en concreto.
Estamos hablando de que esto es, ponen la Universidad Libre de Bruselas, la abren de cara al público, hay varios edificios de la universidad, varias facultades en la que dentro de cada una se habilitan aulas o los auditorios, perdón, los auditorios donde hay sitio a lo mejor para 300 o 400
personas. Habilitan todas estas instalaciones para que se den las charlas y a mayores, luego por lo que son las entradas, los pasillos de las facultades, hay stands de los principales representantes de software libre hoy en día, pues charlas de, perdón, stands de Mozilla, de LibreOffice, de un montón de stands, no te quiero exagerar, pero a lo mejor había decenas y decenas de stands, pues desde temas de generalistas, pues como puede ser más un navegador o un editor de
textos o paquete de oficina, pues también había temas de Next Cloud, de impresión 3D, de electrónica, bueno, de un montón de temáticas libres, por supuesto de marketing estaba Mautic, estaban temas de bases de datos, sistemas operativos, incluso sistemas operativos para teléfonos móviles, entonces bueno, había una gran representación en los stands de un montón de software libre, a mí me encantó, y bueno, en estos stands, pues puedes comprar camisetas, te regalan pegatinas,
todo ese tipo de cosas y la verdad genial, porque mantienes unas conversaciones allí súper interesantes, preguntas todas las dudas que puedas tener sobre ese software en cuestión.
A mí me llamó mucho la atención el formato, miles de personas, o sea, muchísima, muchísima gente, a veces unas colas terribles para comer o para pedir un café o similares y eso que había varios sitios, muy bien, muy bien la verdad, en general muy bien, salvo este tipo de aglomeraciones, el resto muy bien.
Quería comentar que es a nivel Europeo la feria, por llamarla de alguna forma, más importante relacionada con el mundo del software libre y las tecnologías libres, y aquí en España lo más parecido que tenemos a lo mejor sería la esLibre, que este año se celebra en Valencia el 24 y 25 de mayo.
Sí, efectivamente, efectivamente, súper recomendable la esLibre también, un ambientazo, nosotros ya hemos vivido alguna y lo hemos pasado bien, así que también lo recomendamos desde aquí, que si puedes, no te la pierdas la esLibre, exacto, sí, sí, sí, y aquí en España, pues la verdad es que para mí es una pena que las universidades no colaboren de la misma manera que en Bruselas, porque para mí la Universidad de Bruselas está a otro nivel en ese sentido.
¿Y qué tema nos traes hoy? Pues hoy quiero hablaros del HTML semántico, es decir, de marcar nuestros contenidos de tal manera que se entiendan sin necesidad de explicarlo explícitamente. ¿Qué es el HTML semántico?
Bueno, pues básicamente se refiere a estructurar el código HTML de tal manera que lo marquemos con etiquetas que permitan identificarlo sin necesidad de explicar qué es, por ejemplo, un menú, para mostrar un menú utilizamos la etiqueta nav o para mostrar el encabezado de la página la etiqueta header, también existen otras etiquetas a nivel estructural de la página en general, pues la etiqueta main, la etiqueta footer para el pie de página y luego existen unas etiquetas
como más concretas para ya cuando creamos nuestros contenidos, por ejemplo, cuando estamos creando un contenido dentro de un artículo que sea una lista numerada o sin numerar, podemos utilizar la etiqueta ul o la etiqueta ol, ol para listas ordenadas y ul para desordenadas y luego cada elemento se marca con un li.
Esto normalmente el editor que utilicemos ya cuando le damos que esto es una lista nos pone el puntito, el típico puntito antes de empezar a escribir y en cuanto le damos al intro, al retorno de carro para crear una línea nueva, ya nos pone el punto siguiente.
Entonces es muy interesante, en vez de utilizar un guion y un espacio a mano, lo que hacemos es poner esta etiqueta y así los navegadores y los lectores de pantalla saben que estamos hablando de una lista ya sea ordenada o desordenada. Como esto, pues también tenemos otras utilidades que nos van a venir muy bien a la hora de crear contenidos, como por ejemplo, los títulos.
Toda página debería tener un título de nivel 1 que describa de qué va esta página que estamos viendo dentro del sitio web. A mayores, si esta página tiene como subdivisiones, pues cada una de estas debería tener un título de nivel 2 que explique cada una de estas subdivisiones y a su vez si estas divisiones están divididas también en otros, pues títulos de nivel 3 y así sucesivamente hasta el título de nivel 6.
Si queremos, por ejemplo, marcar una cita, una cuota, un bloc cuote se llama la etiqueta para un fragmento de texto de otra fuente o para decir, pues esto fue lo que dijo el actor en esta película, por poner un ejemplo, incluso se puede poner luego la etiqueta cita para también pues decir quién dijo esto y demás.
Hay otras etiquetas que nos vienen muy bien, hay etiquetas para marcar una tecla, por ejemplo, con control y la c copias, pues para poner ese control y c hay una etiqueta kbd que se llama. Si queremos escribir código en nuestro artículo, pues podemos marcarlo con la etiqueta code y así tenemos pues algunas etiquetas más que son muy útiles para que todo el mundo sepa de qué estamos hablando.
Las ventajas de utilizar el código HTML semántico, además de que evidentemente un lector de pantalla puede decirte, pues mira, esto es un fragmento de código o una cita o similares, esto también, como ya habíamos dicho anteriormente, también ayuda al posicionamiento web porque los robots también van a entender mejor tu código, tu contenido, por lo tanto, es bueno en muchos sentidos.
Ya no nos vamos a meter en otros ámbitos más profundos, pero sí que es cierto que propio navegador y demás va a saber pintar las cosas más fácilmente, ¿vale? Entonces esto es interesante a todos los niveles.
Sí que es cierto que si en un momento dado no podemos marcar un fragmento de código como nos gustaría, pues con una etiqueta apropiada para ello, tenemos también la posibilidad de marcarlo con la opción role, es decir, especificar el role que tiene esa etiqueta dentro del significado del artículo, ¿vale?
Entonces, si estamos creando un artículo y no tenemos más posibilidad que poner divs o spans, siempre podemos poner el significado de qué es esto, pues, por ejemplo, si queremos decirle, pues mira, esto tiene el rol de título o tiene el rol de cita, pues siempre puede ser una alternativa, aunque no la mejor, pero por lo menos tenemos una manera de suplirlo. Bueno, pues hasta aquí la sección de Pablo Arias de accesibilidad web. Muchas gracias a ti, oyente, y a ti, Jorge.
Hola, ¿qué tal? ¿Cómo estamos? Soy Marco Orino, Marcos para los amigos y, bueno, me gustaría compartir un par de cositas que han estado ocurriendo, bueno, que me han ocurrido en estos, sí, este último mes más o menos, una cosa así. La primera tiene que ver con un problema de accesibilidad con el programa o la aplicación gPodder, que está, bueno, pues para, por lo menos para Linux y Windows, seguro que sí. Lo que ocurre es lo siguiente.
Tengo un amigo que tiene ceguera total y resulta que, claro, estaba teniendo problemas con su reproductor de, o sí, su dispositivo para escuchar podcast, que es el Victor Reader, creo que el 503 Stream o algo así, creo que es el modelo, la marca Victor Reader o la marca del aparato. Y nada, que resulta que la Wi-Fi no le estaba funcionando bien y todo lo demás sí, entonces estaba buscando, digamos, una forma de bajar podcast a la tarjeta SD.
Cómo se ha hecho esto de escuchar podcast de toda la vida. Y bueno, pues que estaba buscando un programa accesible y todo esto, y que le dejaran las cosas organizadas por carpetas, los podcasts organizados por carpetas y todo esto. Bueno, le digo, podrías utilizar gPodder. Tú que usas Windows, seguramente, vamos, el programa tiene pinta de ser accesible porque, a ver, la interfaz pues es muy sencillita.
Uno tendría a pensar que los menús eran accesibles, que todo era accesible. Pues no, no sé qué partes eran accesibles, pero por lo visto tuvo problemas para trabajar con él. Incluso, claro, se lo pasó al especialista de Tiflotecnología que le hace el seguimiento y dijo "hombre, qué bien, este programa seguro que es accesible", porque claro, la interfaz pues es lo que había y no, se llevó una sorpresa que no podía ser.
Entonces, pues claro, ahí estuvimos viendo otras alternativas y tal. Sí que es una cosa que me resultó un poco extraña, me llamó mucho la atención que un programa así, con una interfaz así de sencilla, tuviera problemas de accesibilidad.
Sí que parece que en Windows tiene la posibilidad de utilizar muchos comandos, muchas opciones por línea de comandos, no lo sé porque no lo he probado en Windows nunca, en Linux pues sí y solamente tienes una posibilidad que es la de poner en una terminal gPodder la ruta del RSS del podcast y ya está, y añadir el podcast que quieras añadir de esa manera.
Pero no tiene nada más, por lo menos no aparece, creo que no tiene página de manual o si la tiene pues eso dice solamente eso y la parte de ayuda pues también, entonces pues ahí estaba la cosa. Bueno, pasando al otro tema, pues me puse a cacharrear un poquito, no demasiado, pero un poquito con la aplicación StreetComplete de la que estuvo hablando David Marzal en el episodio anterior.
La verdad es que es interesante, tengo que seguir viendola a ver qué se puede hacer y qué no se puede hacer, pero sí, ya definitivamente, a ver, tenía pendiente de hacerme una cuenta de OpenStreetMap y a ver qué pasaba, pero sí, siempre me lo había dejado en el tintero.
Ya la tengo, ya he trabajado un poquito y sí, para algunas cosas puede que la aplicación de momento se me quede así como un poco confusa, para otras sí que va bien, pero sí, creo que me voy a defender mucho mejor para añadir cosas en la, bueno no sé, supongo será la interfaz web que te ofrece la propia página de OpenStreetMap cuando inicia sesión, que te permite pues eso, editar el mapa y añadir lugares y tal, ya he podido añadir un par de cositas y ver cómo es que
aparecen en el mapa y ya he podido pues tener ahí mis pequeñas metidas de pata que me las corrigieron, supongo que gente que está trabajando ahí en el proyecto con otro tipo de permisos, eso, no sé todavía muy bien cómo funciona todo el detalle, pero es interesante y posiblemente pues sea una buena excusa para pues eso, hacer una cosa, digamos, hacer algo diferente mi hija y yo cuando vayamos por la calle, pues mapear sitios, que así pues le vendría bien para familiarizarse
con mapas, geometría, matemáticas y estas cositas, no lo sé, ya iré contando si es que al final termina cuajando algo de eso. Esto es todo lo que quería comentar y nada, que vaya todo muy bien, un saludo. Buenas Jorge, hoy nos viene a visitar Ubuntu MATE 2310 de hace unos pocos meses. Ubuntu es reconocida como Linux para humanos, pues vamos a probarlo primero en el CD Live o USB viva sin instalarla en el ordenador,
en la máquina. Arrancamos el CD, aparece el menú de arranque de la ISO y no aparece ninguna ayuda como ocurre o ocurría en otras distribuciones anteriormente o años a. Arranca, mejor dicho, aparece la primera pantalla con medio entorno cargado donde nos pregunta básicamente el idioma que elegimos español y tenemos dos opciones, probar o instalar. En este caso, probamos primero, a ver qué tal, para hacernos una idea de lo que tendremos después instalado si así lo
decidimos. Una vez arrancado y cargado el escritorio, pues veo, o yo desde luego no lo he encontrado, el zoom de escritorio que es una ayuda básica. Podemos encontrar una lupa, que es un juguete, básicamente si alguien quiere hacer tutoriales pues le puede venir bien. No encontramos la función de invertir colores ni de escritorio ni de ventana. Sí, hay temas oscuros, pero eso lo dejaremos para después. Una parte importante es el ratón,
el puntero del ratón. Pues el tema que tenemos, ¿se puede modificar? No. ¿Se puede cambiar de color? No, vamos mal. En monitor de pantalla, pues tenemos la opción avanzada o teníamos la opción avanzada de escalado, que sí, está 100% o por dos, es decir, el doble. Esto no debería ser así. De hecho, hace unas versiones pudimos encontrar escalarlo de manera más fina, con un factor que podíamos decidir.
Esto es importante para pantallas pequeñas, sacar mayor provecho, una mayor productividad, dado que no es la misma una pantalla de 15 centímetros, perdón, de 15 pulgadas que una de 25 y aplicar zoom o simplemente para personas que llevan un portátil pequeño. La propuesta de escritorio, pues son colores muy blancos. No llega a ser un blanco atómico, pero... perdón, un blanco nudo, claro,
pero se queda cerca. Vemos que tanto las ventanas, título de ventanas, las barras de escritorio son blancas y eso a veces genera confusiones porque no sabemos si estamos... tenemos el puntero sobre la ventana o si estamos en la barra. Sobre todo cuando vamos a mover, vamos a arrastrar la ventana. Estamos tirando de la banda con el que corresponde al escritorio, no a la ventana. Es cierto que se pueden personalizar en color, transparencia, las barras de
escritorio. Incluso se pueden poner en vertical de un lado a otro. Y estas son bastante configurables. Los temas de escritorio se pueden personalizar en colores, pero ocurren composiciones un poco ortopédicas. Unos dependen, o sea, cuando modifiques un color, afecta a varios componentes de la ventana o del escritorio. Por ejemplo, tenemos la opción de
en el puntero. Quiero recordar, porque estoy viendo aquí unas anotaciones, donde podemos hacer una marca visual en el puntero y para ello podemos activar la opción de control. ¿Qué ocurre si tenemos un escritorio verde o verdoso? Que es la seña en entidad de mate, suelen ser colores verdes, que igual que Linux Mint, pues
aparecerá en verde. Si los colores son del escritorio, de cierta parte de la ventana, cierta decoración de color naranja, pues la ayuda del puntero, que saldrá cuando pulsamos control, aparecerá en color naranja u otro color. Depende del tema de las ventanas, de la decoración de las ventanas. Las fuentes tipográficas se pueden personalizar tanto en tamaño, como tipo de fuente, pero no en color. Eso es algo que sí podríamos
hacer en Gnome 2. Si bien puede ser una solución para personas con baja visión tener fuentes más grandes, en la práctica es muy mala idea, porque si tenemos un monitor de 32 por decir algo así muy bestia, pues si utilizamos las fuentes que son de tamaño grande, pues se queda mejor en la mitad, o mejor dicho, en la cuarta parte. Si tenemos una fuente tamaño 10 por defecto y necesitamos tamaño 20, pues la pantalla se convierte en cierto modo en
la cuarta parte. De las pocas cosas que recuerdo de este Gnome 2, aquel Gnome 2, el cual cogió el relevo mate, entre otras, por lo menos la filosofía de escritorio. Tenemos un efecto visual al darle click para abrir esta aplicación. Una especie de cuando uno tira una piedra al agua, esas ondas que salen circulares. Esa es una de las mejores detalles que tiene o mantiene mate.
Y uno de los iconos que tiene, el tema de iconos que tiene, el Humanity y alguna de sus variantes es posiblemente de los más vistosos. Sorprende que tenga un tema que se llama "Yellow" de muchos colores, pero no se puede modificar. Igual que otros elementos de iconos de las ventanas. Una opción interesante que encontramos en este escritorio, no está por defecto, pero son muy fáciles de personalizar las barras, como he dicho antes de
escritorio. Una de estas opciones es poner unos botones en el cual puedes esconder para ganar más espacio y sacarlas cuando, hacerlas aparecer cuando las necesites, sin que este comportamiento sea automático. Hay personas que optan por temas oscuros en el escritorio, lo cual parece que para personas con problemas visuales, determinados problemas visuales serían perfectos. Pero el tema oscuro o los temas oscuros, cuando abrimos, por ejemplo, HyperOffice, el folio sigue estando
blanco. Luego no hay una inversión de colores. Según qué tipo de problema visual es bastante incómodo tener un folio blanco y el resto de ventanas con las herramientas correspondientes en negro, con fuente o con los iconos en colores blancos o de color. A veces me pregunto dónde está el legado de Gnome 2 y su concepto de escritorio. UbuntuMate pues tiene otros tipos de ayudas que no está orientado a problemas visuales
o baja visión. Yo en eso, ahí son los tipos de personas, de tipo de perfil, los que pueden o deberían aportar su opinión. Con ese sabor de Gnome 2, o lo que queda de él, pues prefiero declinar mi valoración en cuanto a accesibilidad visual. Antes de terminar, se me olvidaba, hemos probado sin instalar. Voy a instalar, pues en la instalación no hay nada descartagable respecto al arranque de Ubuntu de pruebas y
el instalador. Lo típico de Ubuntu, fácil, no hay, que yo sepa, ninguna opción respectiva a la accesibilidad. Una vez actualizado, mejor dicho, instalado y recomendable actualizar siempre, antes de abrir la sesión, pues tenemos una opción, que creo recordar que es F10, que nos abre un menú desplegable del escritorio o de inicio de sesión. Pero si tienes un problema visual, pues lógicamente es como si no existiera, o es
muy difícil. Tampoco hay una indicación que ayude a pensar que se puede abrir con alguna tecla del teclado. Recordar que Ubuntu Mate tiene varias propuestas, como Unity, un antiguo escritorio que desarrolló Ubuntu y otros entornos gráficos característicos de otros sistemas operativos. En este caso he optado por la idea original de Mate, que era la de un Gnome 2, pero evolucionado en cuanto a librerías.
Mientras he estado probando Ubuntu Mate estos días, pues también he visto y comparado algunas diferencias de Linux Mint con el escritorio Mate. Hay muy pocas diferencias en cuanto a las características de ayuda visual, si bien es cierto que la propuesta es un poquillo diferente por defecto. En cuanto a la barra de escritorio, solamente tiene una y es la parte inferior y el menú principal, que en lugar de hacerlo en color blanco, es en color oscuro, igual que la
barra de escritorio. Bueno, hasta la próxima Jorge. Hasta aquí queda mi parte del laboratorio. Pues en la sección de diseño para todos con Jonathan Chacón, hoy nos va a hablar de voces sintéticas entre otros temas. Hola Jonathan. Buenas Jorge,
buenas a todos. Pues hoy vamos a hablar de una tecnología que, aunque empezó como un simple juego de IBM, se ha terminado en convertir en una industria del software, en la que hay nichos muy concretos que se benefician, entre ellos la salud, las personas con discapacidad, la automoción y, por supuesto, el mundo militar. Pero vamos a empezar con eso de qué son las
síntesis de voz. Pues una síntesis de voz es un conjunto de datos que representan reglas y formas de emitir sonido que emiten a una voz humana con mayor o menor calidad. ¿Qué depende de la mayor o menor calidad de una síntesis de voz? Pues su juego de fonemas, o sea, el conjunto de sonidos que representan los distintos sonidos que emitimos unas personas al hablar, porque no es lo mismo voces monofonéticas que voces bifonéticas, trifonéticas o polifonéticas.
No es lo mismo pronunciar "bra" que hacer un "b", luego una "r" y luego una "a", que sería lo que hacen las voces monofonéticas de reducir el mínimo y luego están las polifonéticas o trifonéticas que recogen la grabación de personas que, al principio, hablando allá por los años 60, que es cuando empieza en IBM en 1962, el físico John Larry Ketty creó una caja
fonética con un IBM 704. Consiguió hacer que ese computador, y lo llamamos computador porque era del tamaño de un armario, además de reproducir música mediante un instrumento sintético, reprodujese una canción. Hablaba, entonaba y esa misma canción la podemos escuchar en la película 2001, Una odisea despacio, cuando HAL 9000 está
siendo desconectado. Esa canción que se pone a hablar es una grabación extraída de ese IBM 704 y, digamos que como un guiño o cameo especial que le hizo el señor Kubrick a toda esa invención que se hicieron los laboratorios Bells en la década de los 60, donde se abrieron muchas de las tecnologías, que mucha gente piensa que todo empezó con internet, internet de los años 50. ¿Qué pasó después de ese
1962? Pues se siguió investigando, pero en el MIT, en el MIT, la gente de laboratorios Bells, la propia IBM, haciendo experimentos, mezclando voces fonéticas, grabaciones de mujeres, porque al principio las grabaciones eran todas de hombres, para hacer esas cajas fonéticas. Y no es hasta el año 83, 1983, que se consigue hacer un producto comercial
para el público. Todo lo que se estaba desarrollando antes era sólo para investigación, para procesos que nunca llegan a ver el mercado, bien sea para utilizarlo a nivel militar o a nivel de empresas que no se comercializan, sino que son productos ad-hoc. Por ejemplo, se habla de un control de acceso donde había una caja de fonetización sintética, o sea, un cacharro que hablaba, que simplemente te decía "stop" o "pass", y eso pues a finales de los
años 70. Y en el año 83 se sacó al mercado el "Dead Talk", que en principio iba a ser un producto, un dispositivo hardware, que tú le pasabas por el puerto serie una cadena de texto y él la convertía en una voz. Por cierto, una voz horrible. ¿Llegaste a escucharla? Sí, y lo he sufrido. No la versión del año 83, pero sí he jugado con la versión del año 91, porque le pude echar la mano.
Yo me quedé ciego en el año 96 y pude jugar con alguna síntesis de voz vieja de los años 80 y los 90. Tanto un microprocesador Philips, que tenía una voz integrada, que luego se utilizó en el famoso Braille Speak, el primer anotador portátil de menos de medio kilo de peso. No lo tuvieron las personas que veían, lo tuvimos los ciegos, allá por los finales de los 80. Y tenía una síntesis de voz horrible, pero que era muy ágil, una calidad de audio de 8 bits,
muy metálica. Si habéis visto la película "Juegos de guerra", esa voz era de calidad en comparación con la que teníamos que aguantar las personas ciegas en los años 80 y los 90, pero se escuchaba muy bien cuando acostumbrabas al oído y era muy rápida. Le podías modificar tanto el timbre, como el tono, como la velocidad y eran muy versátiles y ocupaban menos de 128K de memoria. Entonces, entraba muy bien. ¿Qué pasa?
Que cuando Dettal salió al mercado, perdón, iba a avisar, salió con el objetivo de ser utilizada como prótesis comunicativa para personas con traquetomía o problemas de laringe, trajo un proceso de oncología de laringes. Era muy
habitual. Los hombres que con esa moda de masticar tabaco en Estados Unidos y la India, pues terminaban con una amputación parcial o total de la laringe o la faringe, pues no tenían cuerdas vocales útiles y Dettal salió con ese origen y de repente vieron "Uy, a los ciegos les interesa
esto". Y empezaron a hacer mercado con Dettal hasta el punto que empezaron a aparecer otras empresas como Loquendo a finales de los 80, Nuance a mediados de los 90, no con la intención de vendérselo a particulares, sino con la intención de poner voces sintéticas que avisasen los trenes que llegan o salen, los avisos de seguridad de los aeropuertos, llamadas de atención en supermercados y centros comerciales y de ahí apareció un incipiente mercado en donde la voz se
estaba convirtiendo en un sistema de comunicación desde la empresa a los clientes de forma bastante eficiente porque es muy comprensible para todo lo que pueda escuchar
y era relativamente barato. Las primeras voces estamos hablando que necesitaban la friolera de un ordenador con 24 megas de RAM, cuando lo habitual era un ordenador con 2 o 4 megas de RAM, estamos hablando de la época de los 286, los Commodore y Amiga, los Apple II o los Macintosh y no se tenían más de 2 o 4 megas de RAM disponible entonces hablamos de máquinas de servidores.
También en los 90 y retomando toda la evolución en la investigación de síntesis de voz del MIT, en la Universidad de Edimburgo aparece Festival Speech System que es la base de todos los motores de síntesis de voz modernos que tenemos en la actual, generados a través de cajas fonéticas por análisis de grabaciones humanas y dirás, esto has puntualizado mucho porque hay mucho
que puntualizar. Hay competidores de Festival como Speak, que es de finales de los 90, principios de los 2000, que Speak está totalmente generado sintéticamente, no hay una grabación previa de donde extraer los datos, simplemente se hace un mapa de las consonantes y las vocales, de su onda de sonido, de cómo se pronuncia, se hacen análisis comparativos, por ejemplo, con cuatro hombres, se saca la media de esas ondas y de ahí se extrae cómo se pronuncia
una P, una B, una Z, toda esa información se guarda, esa frecuencia o esa modulación o ese conjunto de frecuencias para ser generados todo directamente en RAM. En cambio Festival proviene de toda esa investigación previa de IBM, de tener guardado ese conjunto de audios de donde sacar esa información para generar la voz escuchada a través del
ordenador. Speak es uno de los sintetizadores de voz más compactos y más ligeros y más portables, tan portables que empezaron su andadura en 1995 para RISC OS, que yo este no lo he usado, este sistema operativo, pero rápidamente pasó a Linux, tanto para Ubuntu, Mandriva, Slackware. En el año 2006 se portó a Windows y terminó siendo la voz por defecto del lector de pantallas NVDA, que es el lector de OpenSource más común en Windows.
También se utiliza Speak o eSpeak en Orca, tenemos voces portadas a Android, a iPhone, todo es software libre. Hay ya un par de forks o continuaciones hijas de este proyecto, donde se ha cambiado el catálogo fonético de ondas para que se adecúe a voces o dialectos más complejos, como esos dialectos creo que son de África, donde hay sonidos que no tenemos en la mayoría de lenguas, como el "k", que hay lenguas muy raras. -Has pedido una cerveza,
¿verdad? Te he entendido. -Totalmente.
Pues las voces sintéticas, y aquí quiero llegar, solo se han preocupado las voces comerciales, incluso IBM cuando salió a lo comercial, cuando vio que había dinero, en cuanto IBM vio que toda esa investigación de 20 años valía para algo más que darle juguetitos a los militares o a empresas que querían hacer una presentación alucinante para sus clientes, vio que había dinero, la gente de IBM corrió rápidamente para sacar al mercado Eloquence o su hijo
bastardo, que es Diavois. Todas las empresas que hacen voces sintéticas privadas solo se han preocupado por dar soporte a los idiomas del primer mundo. -Inglés, francés, alemán y... -Español. Incluso se sabe que lenguas como el catalán, lenguas como el sardo o el corso se han dado soporte después de que los representantes o gobernadores de esa región han pagado dinero a Nuance o a IBM o a la propia Apple
para dar soporte. -Entonces te voy a corregir, te voy a decir que se han preocupado por cobrar siempre. -Siempre, siempre, totalmente. Y a diferencia, Festival dejó todo libre. El que quisiera se podía adaptar, lo que pasa es que Festival era demasiado engorroso y ha sido uno
de los problemas. Por ejemplo, para Festival, la propia Junta de Andalucía desarrolló voces para Guadalinex, que es la distribución que tuvimos allá por el 2008-2009, y éramos los únicos que tenían voces con el lector de pantalla en castellano, porque o tirabas de "speak" o tirabas de las voces de Festival en inglés hablando en castellano. Tú sabes que quiero decir, que ese acento americano es raro que tiene las voces inglesas cuando le esfuerzas a decir un texto
en castellano. Tanto Festival como Speak como Merry TTS o Merits, que son motores y tecnologías totalmente open source, es más, Festival es GPL 2, creo que se ha actualizado ya la 3, Speak está en GPL 3, Merry TTS es Critic Commons, todo libre, siempre hay que respetar las licencias de los
autores. Speak tiene soporte actualmente, si no recuerdo mal el dato, para 107 idiomas, todo a base de voluntarios, gente que ha compartido reglas gramaticales y de pronunciación, reglas de fonética, gente que se ha molestado en grabar audios para incluir esos fonemas no habituales, y gracias a eso pues hay personas que por ejemplo están en Finlandia que solo hablan finlandés y pueden usar un lector de pantallas en finlandés en vez de tener
que usar una voz en inglés. O por ejemplo personas que hasta hace menos de ocho años en Asia no tenían una síntesis de voz que pronunciase bien su idioma, o sea, se hacían adaptaciones de coger por ejemplo la caja fonética de Nuance para japonés y hacían la voz china y era horrible. Es como, no sé, supongo que sería intentar escuchar un texto en castellano con una voz en francés o una voz en italiano, de que te chirría muchísimo.
Pues las personas ciegas pues no tenían otra opción hasta que los proyectos de software libre han llegado allí, porque también está el tema de no solo los muros comerciales sino los muros sociopolíticos que impiden que el open source llegue a todas partes, pero bueno, Speak AI Festival
han tenido mucho éxito. Una cosa muy interesante es que en principio Stephen Hawking utilizó la voz de Dettalk pero le daba mucho problema tener ese hardware y terminó incluyendo un módulo que copiaba a 100% la caja fonética de Dettalk pero ejecutándose con Festival y ahí los propios ingenieros de la universidad, creo que era de Oxford, Hawking o Cambridge, no me acuerdo, lo siento, pues se preocuparon de actualizarle, de personalizarle algo que la gente
de Dettalk no permitía. Esta es la voz que hay, el hardware es este y no se puede modificar nada.
Claro, no estaban contentos porque no se podía adaptar la forma de interactuar que tenía Hawking, con su silla de ruedas para escribir los mensajes que quería escribir, pero es que además no era una voz agradable de escuchar ni para él ni para el público, ni era rápida ni eficiente, entonces gracias al software libre se permitió que no solo Stephen Hawking sino otras personas con problemas prolocutivos o problemas de movilidad pudiesen
tener una voz. Y bueno, y ahora en la actualidad, año 2024 ¿ha cambiado mucho la
cosa? Sí, notablemente, brutalmente, increíblemente, aunque Festival, Mervi, TTS y Speak siguen fuertes, porque cuando no tienes espacio, porque solo tienes un mega de RAM, ahí metes Speak, tienes menos de 500 megas de RAM, metes Festival, pero cuando te sobran los recursos ha aparecido algo que es mucho más útil para las personas que están a punto de perder su voz o se tienen grabaciones de su voz, al menos de una hora, o mientras más horas tengas de
grabación de su voz hablando con naturalidad mejor, porque gracias a la inteligencia artificial se están clonando voces para crear cajas de síntesis de voz. Y ahí es la revolución que estamos teniendo, que ya hay cosas tan alucinantes como con tres minutos de tu voz ya se puede hacer una síntesis de voz, aunque claro, tiene que ser hablando en el idioma que la inteligencia artificial considera como nativo y no queriendo una voz emotiva,
que esa es otra. Hay voces sin emotividad que hablan una voz así de plana y voces que hablan con más naturalidad, se llama emotividad, que hacen entonaciones de interrogación, de admiración e incluso en algunos casos pueden transmitir sentimientos de alegría o terror. Y por supuesto, por desgracia para todos nosotros, esas voces son caras porque son del carácter privativo, porque el open source se ha centrado principalmente en dar soporte y ayudar lo más rápido posible a la
humanidad. A esas personas que hablan farsi o suahili, o a esas personas que hablan sánscrito, o a esas personas que hablan vietnamita, que también son personas, digo yo, pero ni Nuance, ni Loquendo, ni IBM, ni Apple, ni Google, que mira que Google ha hecho un esfuerzo por sacar sus voces más en idiomas, pero es el catálogo de Google o de Apple y actualmente dan soporte a menos
de 30 idiomas. Sí, ahora que estábamos hablando de esos ciento y pico idiomas disponibles para los sistemas operativos libres, también recordar a esos sistemas operativos libres basados muchos en ULinux, gracias a la labor de traductores, pues se pueden tener también los textos traducidos a ciento y pico idiomas y disponibles para que la gente pueda instalar y meter el idioma que necesite o que prefiera.
Es lo bonito del mundo colaborativo del open source, que con el esfuerzo de unos, el esfuerzo de otros, al final consigues que una persona tenga acceso a la tecnología y encima en su idioma, con la menor fricción posible. Digamos que es lo bonito de "venga, vamos a unirnos unos cuantos, yo sé hacer esto, tú sabes hacer esto" y entre todos sacamos algo que sea útil y es lo interesante. Con lo de la inteligencia artificial el problema está en la regulación
a quién pertenece la voz. ¿La persona que graba? ¿La persona que envía la grabación? ¿La persona que pulsa el botón para generar la voz? ¿O la persona que utiliza los mensajes generados
por esa voz? Y ahí entramos en un dilema socio-geopolítico bastante interesante porque las opiniones de uno es una forma, la opinión de otro es otra y a mí lo que me preocupa es que algunos están regulando a favor de las grandes empresas, poniendo una regulación tan estricta que una universidad o un investigador en su casa o un voluntario en su casa no pueden cumplir pero en cambio las grandes empresas sí.
Y en otro lado se está regulando de forma de que todo vale y tampoco todo vale porque si es necesario un poco de regulación pero no dejémosle toda la tarta a aquellos que solo buscan la cuchara para ellos mismos que el Open Source ha abierto mucho, ha aportado mucho a nuestro planeta y la regulación debería respetar y reflejar esto y bueno ahí seguimos al pie del cañón. Pues una sección muy completita nos ha quedado hoy Jonathan.
Pues me alegro y espero que a la gente le esté gustando y se aceptan peticiones como siempre digo que a veces a uno se le acaban los temas. Muy bien pues hasta el próximo programa.