La Universidad de Alicante suma ocho nuevos investigadores de excelencia

La Universidad de Alicante suma ocho nuevos investigadores de excelencia


 

La Universidad de Alicante (UA) contará a partir de enero de 2024 con ocho investigadores de excelencia gracias a las ayudas Ramón y Cajal y Juan de la Cierva 2022 del Ministerio de Ciencia, Innovación y Universidades, a través de la Agencia Estatal de Investigación (AEI).

En concreto, en la convocatoria Ramón y Cajal 2022, Carlos Esteve-Yagüe se une al Departamento de Matemáticas, Manuel Ortuño y Damián Monllor al Departamento de Química Física, y Rosa M. Arán y Rubén Rizo al Instituto Universitario de Electroquímica. A través de la convocatoria Juan de la Cierva 2022, María Botella llega al Departamento de Ecología, Mario Corrochano-Monsalve al Instituto Multidisciplinar para el Estudio del Medio “Ramón Margalef” (IMEM) y María Victoria García al Departamento de Prehistoria, Arqueología, Historia Antigua, Filología Griega y Filología Latina de la UA.

Desde el Vicerrectorado de Investigación de la Universidad de Alicante afirman que la incorporación de personal investigador a los distintos departamentos y centros de investigación siempre es una gran noticia. De hecho, «la Universidad de Alicante está haciendo un esfuerzo importante en este sentido y ha puesto en marcha una estrategia para la captación de talento que ya ha comenzado a dar sus frutos. Prueba de ello es el aumento significativo de las ayudas Ramón y Cajal en esta última resolución, en la que la UA ha pasado de tener un solo investigador en 2017 a contar con cinco beneficiarios en 2023», afirma el vicerrector del área, Juan Mora. 

Ramón y Cajal 2022 

Las ayudas Ramón y Cajal se conceden con el fin de promover la incorporación de personal investigador, español o extranjero, con una trayectoria destacada en centros de I+D españoles, con el fin de que adquieran las competencias y capacidades que les permitan obtener un puesto de carácter estable en un organismo de investigación del Sistema Español de Ciencia, Tecnología y de Innovación. A continuación, se detallan los perfiles de los nuevos contratados Ramón y Cajal 2022 de la Universidad de Alicante:

Manuel Ortuño es licenciado en Química por la Universidad de Almería y se unirá al Departamento de Química Física de la UA para trabajar en la simulación computacional (“DFT”, “MD”) de especies moleculares y materiales porosos como catalizadores en procesos de química sostenible. En 2014, se doctoró en Química Teórica por la Universitat Autònoma de Barcelona. Desde 2015, ha realizado estancias en centros como la Universidad de Minnesota (Estados Unidos), el Institut Català d’Investigació Química (ICIQ), en la Universidad St. Andrews (Escocia) y en la Universidad de Bonn (Alemania). En 2020, se incorporó al Centro Singular de Investigación en Química Biolóxica e Materiais Moleculares (CIQUS) como investigador principal joven con una beca de investigador distinguido de la Xunta de Galicia. Durante este período, recibió dos proyectos del Ministerio de Ciencia e Innovación para calcular redes metal–orgánicas para la conversión de biomasa y líquidos iónicos para procesos de despolimerización.

Carlos Esteve Yagüe es graduado en Matemáticas por la Universidad de Alicante. En 2014, se incorporó a un programa de master de investigación en matemáticas en Université Sorbonne Paris Nord, con una beca de la fundación de matemáticas de París. Además, se doctoró en 2019 en esta misma universidad bajo la dirección de Philippe Souplet, y en ese mismo año, se unió al equipo de investigación de Enrique Zuazua, en la Universidad Autónoma de Madrid y en la Universidad de Deusto, en Bilbao. Desde enero de 2022 se encuentra en la Universidad de Cambridge, donde trabaja como postdoc en el grupo de Carola-Bibiane Schönlieb. Su investigación se centra en el uso de ecuaciones en derivadas parciales y machine learning para resolver problemas inversos aplicados al análisis de imágenes. Otro de sus temas de investigación es el estudio de problemas de control óptimo y teoría de juegos. Como investigador, Esteve Yagüe ha realizado estancias en universidades como la californiana UCLA, la Universidad de Buenos Aires y la Universidad de Texas en Austin.

Rubén Rizo se licenció en Químicas por la UA en 2011 y, un año después, realizó el Máster en Electroquímica, Ciencia y Tecnología. Realizó su doctorado en la Universidad de La Laguna donde obtuvo el Premio Extraordinario de Doctorado y, durante este período realizó estancias en el Instituto de Carboquímica en Zaragoza, en la Universidad de Leiden (Países Bajos), en la Universidad de Cornell (EE.UU.), en la UA y en la Universidad de Río Cuarto (Argentina). Además, ha llevado a cabo una estancia postdoctoral en el Instituto Fritz Haber de la Sociedad Max Planck en Berlín. En 2020, consiguió una Ayuda Juan de la Cierva con la que volvió a la UA para llevar a cabo estudios electroquímicos fundamentales sobre superficies monocristalinas bien definidas. Cuenta con artículos publicados en revistas internacionales como la Journal of the American Chemical Society, Nature Energy. Entre otros reconocimientos ha obtenido el premio “International Society of Electrochemistry Travel Award” y, actualmente, forma parte del equipo editorial de la revista Nature Communications.

Rosa M. Arán se licenció en Química por la UA en 2010 y obtuvo el doctorado internacional en Electroquímica, Ciencia y Tecnología en 2016. Desde 2017, fue investigadora postdoctoral en la Ruhr-Universidad Bochum (Alemania) y en el Instituto Fritz-Haber Berlín de la Sociedad Max Planck (Alemania). En julio de 2020 se unió al grupo de Electroquímica de Superficies de la Universidad de Alicante gracias al Programa GenT de la Generalitat. En 2021 fue nombrada líder de un grupo asociado a la Sociedad Max Planck en colaboración con el Instituto Fritz-Haber (Berlín, Alemania). Las importantes contribuciones de esta investigadora en los campos de la electroquímica de superficies y la electrocatálisis se han plasmado en más de 30 publicaciones en revistas de alto impacto. Además, la investigadora de la UA recibió en 2022 uno de los Premios de la Ciencia Santiago Grisolía por su destacada proyección científica en el campo de la electroquímica y este año, el premio “Jóvenes Talentos” del Grupo de Electroquímica de la Real Sociedad Española de Química (RSEQ).

Damián Monllor tiene una doble licenciatura en Química por la Universidad de Alicante y la Universidad de Strathclyde (Reino Unido), y un doctorado en Ciencia de Materiales por la UA. Realizó una estancia postdoctoral en Corea del Sur y ha trabajado como investigador en el Institut de Recerca en Energia de Catalunya y como profesor contratado doctor en el IQS School of Engineering – Universitat Ramon Llull. Posteriormente, se incorporó como investigador sénior en la UA (2019-2021) y tras un periodo como profesor de educación secundaria, regresó a la universidad con un proyecto de Consolidación Investigadora (2023). Está especializado en la foto(electro)química de electrodos y suspensiones de materiales semiconductores, aplicada a la descontaminación de aguas y la generación de combustibles solares, como el hidrógeno (fotosíntesis artificial). A lo largo de su carrera, ha recibido premios de la Real Sociedad Española de Química y de SusChem España, y ha sido beneficiario de un contrato Juan de la Cierva-Incorporación en 2014. Cuenta con artículos publicados en revistas como Nature Communications, The Journal of Physical Chemistry o ChemPhysChem, entre otras.

Juan de la Cierva 2022 

En concreto, las ayudas Juan de la Cierva, financiadas con fondos europeos del Plan de Recuperación, Transformación y Resiliencia y con presupuestos nacionales, están dirigidas a fomentar la incorporación de jóvenes en posesión del grado de doctor, con el objetivo de que completen su formación investigadora postdoctoral en centros de I+D españoles. A continuación, se detallan los perfiles de los nuevos contratados Juan de la Cierva 2022 de la Universidad de Alicante:

María Botella es graduada en Biología y con un Máster en Gestión de la Biodiversidad en Ambientes Mediterráneos en la Universidad de Murcia (UMU) y se une al Departamento de Ecología de la Universidad de Alicante. Su trabajo estará enmarcado en la línea de investigación “Efectos de cambio climático y contaminación en fauna de ambientes semiáridos” dirigida por los investigadores de la UA Santiago Soliveres y Susana Bautista. Su investigación se centra en los mecanismos y adaptaciones que hacen posible la vida en condiciones extremas. Se doctoró en 2022 con mención internacional, cum laude y accésit en la convocatoria del XIV Premio de Investigación en Limnología, a la mejor tesis doctoral por la Asociación ibérica de Limnología. Recientemente, ha sido Premio extraordinario de doctorado en el programa de Biodiversidad y Gestión Ambiental de la UMU.

Mario Corrochano-Monsalve es licenciado en Ciencias Ambientales por la Universidad de Castilla-La Mancha y desarrollará a partir de ahora su investigación en el Laboratorio de Zonas Áridas y Cambio Global de la UA, liderado por Fernando Maestre. Su investigación en la UA se centrará en el ciclo del nitrógeno en zonas áridas. Durante su trayectoria académica, ha pasado por diferentes universidades españolas donde ha cursado un Máster Universitario en Biotecnología en la Universidad Autónoma de Madrid y otro Máster Universitario en Tecnología Energética para el Desarrollo Sostenible en la Universidad Politécnica de Valencia. Obtuvo su doctorado en Agrobiología Ambiental por la Universidad del País Vasco y la Universidad Pública de Navarra y, posteriormente, un contrato Margarita Salas por la misma universidad.

Mª Victoria García es doctora en Historia por la Universidad de Murcia y se especializó en el itinerario formativo de Historia Antigua y Arqueología. En el Departamento de Prehistoria, Arqueología, Historia Antigua, Filología Griega y Filología Latina de la UA colaborará fundamentalmente en la línea de investigación sobre las transformaciones del paisaje rural y urbano entre la Antigüedad y la Alta Edad Media y en el proyecto del programa propio “Domus-La Alcudia. Vivir en Ilici”, dirigido por las investigadoras e investigadores de la UA Sonia Gutiérrez, Julia Sarabia, Jesús Moratalla y Victoria Amorós. Su trayectoria laboral está marcada por su intervención en proyectos de gran envergadura como la excavación de Senda de Granada en Murcia y, a partir del año 2008, en las sucesivas fases y campañas del proyecto del Parque Arqueológico del Molinete.

 

 



Source link

Aplicaciones de inteligencia artificial como Stable Difussion se han entrenado con imágenes de abuso sexual infantil

Aplicaciones de inteligencia artificial como Stable Difussion se han entrenado con imágenes de abuso sexual infantil



Populares aplicaciones de inteligencia artificial (IA) como el generador de imágenes Stable Diffusion se han entrenado con una base de datos plagada de contenidos de abuso sexual a menores. Así lo destapó el miércoles una investigación del Observatorio de Internet de la Universidad de Stanford.

Los autores del informe denuncian haber localizado al menos 1.008 imágenes de explotación infantil en LAION-5B, una popular librería de datos de código abierto con la que distintas empresas entrenan sus modelos de IA. Ese material extremo habría sido extraído tanto de redes sociales como de páginas web pornográficas.

LAION es una organización sin ánimo de lucro que gestiona esas bases con miles de millones de datos de internet. Tras ser alertada, explicó a Bloomberg que retirará temporalmente los datos que pone a disposición de las compañías. Los desarrolladores de Imagen, una herramienta de IA de Google, también detectaron que otra de las librerías a la que accedían incluía “una amplia gama de contenidos inapropiados, como imágenes pornográficas, insultos racistas y estereotipos sociales nocivos”.

Agilizar el contenido pedófilo

Los expertos apuntan a que la presencia de contenido pedófilo en esta base de datos puede dotar a los generadores de imágenes que lo utilizan de mejores capacidades para crear falsos contenidos que recreen de forma realista situaciones de la mal llamada pornografía infantil.

“Dan al modelo una ventaja para poder producir contenidos de explotación infantil de una forma que podría parecerse a la explotación infantil en la vida real”, afirma David Thiel, autor del informe y tecnólogo jefe del Observatorio de Internet de Stanford. Además, corre el riesgo de revictimizar a víctimas concretas.

Esa posibilidad despierta la preocupación de los expertos. Otro informe publicado en julio por la universidad californiana junto a la organización Thorn documentó que la mejora de los programas de IA agilizaba la creación de imágenes sintéticas pero verosímiles que “facilitan” la explotación sexual de los menores de edad.



Source link

Una nueva herramienta de simulación virtual del IBV permitirá desarrollar entornos laborales más ergonómicos y eficientes

Una nueva herramienta de simulación virtual del IBV permitirá desarrollar entornos laborales más ergonómicos y eficientes


La adaptación de los entornos laborales a las características de las personas trabajadoras es clave para maximizar la productividad y reducir lesiones y errores La importancia de poner al ser humano en el centro del diseño se pone de manifiesto especialmente en aquellos puestos de trabajo donde existe una alta interacción por parte del trabajador con los elementos presentes. Este es el caso, por ejemplo, de entornos laborales donde existen elementos de maquinaria industrial y herramientas manuales, que en la mayoría de los casos no han sido diseñadas teniendo en cuenta la variabilidad de la población trabajadora que ocupa dichos puestos.

Con este fin, el Instituto de Biomecánica (IBV) lleva a cabo el proyecto DESIUM, financiado por el Instituto Valenciano de Competitividad Empresarial (IVACE) y por la Unión Europea, cuyo objetivo se centra en el desarrollo de una herramienta de simulación virtual para el análisis y la evaluación de la interacción entre las personas y los productos, servicios y entornos que les rodean. A través de simulaciones realistas es posible evaluar ergonómicamente entornos y productos durante las diferentes etapas del proceso de diseño, desde su concepción hasta el diseño final. De esta manera, pueden detectarse errores en las fases iniciales del diseño de un producto o entorno para adaptarlos a las personas, permitiendo corregirlos a tiempo de manera virtual y ahorrar costes en prototipos físicos y futuros rediseños. Además, se consigue maximizar así el rendimiento y/o el confort en función del contexto de aplicación.

Según Mercedes Sanchis, directora de innovación en Bienestar y Salud Laboral en IBV, “El uso de las nuevas tecnologías en el entorno laboral ofrece una gran oportunidad a las empresas para evaluar y diseñar entornos laborales más ergonómicos y eficientes”.

Para el desarrollo de esta nueva solución de simulación virtual ha sido necesario aunar conocimientos de diferentes especialidades como la biomecánica, la antropometría 3D y la ergonomía, así como desarrollar algoritmos específicos para la generación de modelos humanos digitales funcionales. Además, se han incorporado herramientas específicas que permiten evaluar aspectos como el confort postural, la visibilidad o la accesibilidad de los entornos.

Entornos laborales más ergonómicos y eficientes

Con el propósito de ser una herramienta versátil y de aplicación en múltiples sectores, en las investigaciones han colaborado empresas referentes del sector cerámico, metalúrgico y de la construcción como Factor Ingeniería y Decoletaje, Torrescamara, Colorobbia y Keraben Grupo.

A través de la colaboración empresarial se han podido identificar las necesidades específicas de los diferentes sectores en relación a los aspectos de evaluación ergonómica y de factores humanos de diferentes tipos de entornos laborales. Posteriormente, se han recreado los puestos de trabajo de manera virtual y se han incluido modelos humanos digitales representativos de las personas trabajadoras. De esta forma se ha conseguido simular, de manera realista, las interacciones que se producen con los elementos en los puestos de trabajo. Gracias a estas simulaciones, se puede evaluar el riesgo ergonómico y establecer recomendaciones de mejora personalizadas para fomentar el confort, la seguridad y la productividad en los mismos.

En el proyecto también han colaborado Unimat Prevención, la Federación Empresarial Metalúrgica Valencia (FEMEVAL), la Federación Valenciana de Empresarios de la Construcción (FEVEC) y La Confederación Empresarial de la Comunidad Valenciana (La CEV). Además, se ha contado con la participación del departamento de investigación CoMMLab de la Universitat de València en la optimización de las simulaciones para entender mejor la interacción que existe entre las personas y su entorno.

Finalmente, el proyecto DESIUM está financiado por el programa 2023 de ayudas del Instituto Valenciano de Competitividad Empresarial (IVACE) dirigidas a centros tecnológicos de la Comunitat Valenciana para el desarrollo de proyectos de I+D de carácter no económico realizados en colaboración con empresas, financiado por la Unión Europea (IMDEEA/2023/60).



Source link

El misterio de las habilidades inesperadas de la IA

El misterio de las habilidades inesperadas de la IA



Como buen amante de la ciencia ficción, nunca he podido desprenderme del todo del “síndrome HAL9000 al hablar de Inteligencia Artificial. El superordenador que creó Arthur C. Clarke en su novela “2001, una odisea espacial”, llevada luego al cine de forma magistral por Stanley Kubrick, es un icono en el debate de si las máquinas pueden ser inteligentes, melón abierto años antes con su “Imitation game” por el siempre recordado Alan Turing. Un debate que luego desembocó en otra polémica aún más metafísica: ¿pueden las máquinas llegar a ser sensibles o desarrollar, y aquí viene uno de esos miedos cervales que sufrimos los frikis de la CCFF, instinto de supervivencia. No sé si aún es posible destripar (“spoilear” para amantes del neologismo) una película y su novela original, ambas con casi 56 años, pero es necesario revelar un dato para los que no lo sepan o no lo recuerden: HAL9000 es el protagonista de la trama de “2001..”, porque, tras cometer un supuesto error de juicioacaba matando a toda la tripulación de la nave. Bueno, a casi toda: uno de los astronautas logra escaparse y consigue desconectar al bicho. La pregunta de qué le pasó a HAL9000 ha escondido siempre uno de esos miedos primigenios, al estilo Lovecraft, que inspiran los entes cibernéticos en los humanos. Una de las primeras “conversaciones” que tuve con ChatGPT fue sobre HAL9000 y su error, porque ese error, si existe, es “casi” humano, “casi” demasiado humano, como decía Nietzsche. Su respuesta sigue sorprendiéndome: para la IA moderna su ancestro de ficción tiene o bien una “crisis ética” entre su objetivo de proteger la misión y tener que ocultar información a los tripulantes, o bien un conflicto “entre su programación o lo que es mejor para su misión y la humanidad”.

Así respondió ChatGPT a una pregunta clave sobre el personaje de HAL9000: el superordenador de “2001, una odisea espacial”. Información


Todo este exordio viene a cuento por las noticias, cada vez más frecuentes, de las extrañas habilidades que los LLM (Modelos de Lenguaje Grandes) desarrollan inesperadamente durante su entrenamiento y que han causado enorme sorpresa a los científicos que trabajan con ellos. La lógica dice que estos modelos de IA, a los que se atiborra con toneladas de datos que asimilan con redes neuronales inspiradas en las del cerebro humano, es que durante ese entrenamiento desarrollen unas habilidades concretas. Hay que hacer la salvedad de que los propios científicos de datos aún no entienden del todo qué pasa ahí dentro, pero sí saben cuál es el resultado: la IA desarrolla las habilidades previstas. El input da un output como resultado. Pero también desarrolla otras inesperadas. Los especialistas les llaman “comportamientos emergentes” y ya hay docenas de ellos listados. Y la lista sigue creciendo. Por cierto, el término “emergente” no es casual. Los biólogos, físicos y otros científicos utilizan esta palabra “para describir comportamientos colectivos y autoorganizados que aparecen cuando una gran colección de cosas actúa como una sola”. Un artículo de la prestigiosa revista científica Quantamagazine, del que he extraído esta cita, señala que ese comportamiento es el mismo que originó la vida, cuando una serie de átomos se combinaron para crear células vivas, o el que hace que su corazón o el mío siga latiendo en este momento. “Las habilidades emergentes aparecen en sistemas que involucran muchas partes individuales. Pero los investigadores sólo recientemente han podido documentar estas habilidades en los LLM, ya que estos modelos han crecido hasta alcanzar tamaños enormes”, señala el artículo firmado por Esteban Ornes en la revista norteamericana antes mencionada (aquí una versión en español). Inicialmente esto pareció una cuestión de tamaño: cuanto más grande era el modelo, más habilidades imprevistas desarrollaba. Pero, para mayor sorpresa, esas habilidades no solo surgían en los modelos gigantescos de Google, OpenAI o META: había modelos pequeños con unos pocos millones de parámetros que desarrollaban el mismo efecto. ¿Su peculiaridad? Habían sido entrenados con pocos datos pero de mucha calidad. Si a estas alturas, alguien empieza a estar preocupado que no lea lo siguiente. Investigadores de Google Brain ya han conseguido establecer que obligar a un LLM a razonar con una “cadena de pensamiento”, por ejemplo, incitar a la IA a que se explique a sí misma, de repente facilitaba para ese modelo resolver correctamente un problema matemático complejo que, sin ese mensaje de “autoconocimiento” o “autoconciencia”, no sabía resolver. Cada vez que se presiona a la IA, los especialistas hablan del concepto de “emergencia” creada con ese sistema de “cadena de pensamiento” empiezan a pasar cosas raras. Si leen algún libro sobre neurociencia de vanguardia puede que se encuentren con planteamientos muy similares, pese a que hablamos de cerebros humanos, capaces también de cosas increíbles cuando se les coloca en situaciones límite.

Esa presión puede llegar también poniendo cara a cara a dos IA’s: una actúa de forma creativa planteándose cómo resolver el problema antes de resolverlo de forma efectiva mientras que otra actúa como verificador y controlador de los resultados. No es un sistema nuevo en el entrenamiento de Inteligencias Artificiales pero está dando resultados imprevistos en la disciplina que mide la mayoría de edad de esta tecnología: las matemáticas. Hace pocos días DeepMind, uno de los grandes laboratorios de IA de Google, anunció que su modelo FunSearch había resuelto el “problema del conjunto de límites”, un viejo enigma de matemáticas profundas que había ocasionado muchos enfrentamientos ante la falta de acuerdo por cómo enfocar el problema. “FunSearch”, que en principio no era un modelo para resolver problemas matemáticos, está despuntando en esta disciplina y ya ha abordado con soluciones más rápidas que las conocidas hasta ahora otro popular desafío matemático: el problema del embalaje de contenedores. Uno de los investigadores de DeepMind, Alhussein Fawzi, reconoció que no se explican de dónde vienen estas extraordinarias capacidades.

Y ahí volvemos a HAL9000 y a su “error”. La imprevisibilidad de esos comportamientos emergentes tiene una parte luminosa como vemos, pero otra que genera riesgos. Es algo que los frikis aprendieron en “Star wars”: la fuerza tiene un lado claro pero también otro oscuro. Deep Ganguli, un científico de Anthropic, la empresa de los hermanos Amodei creadora de la IA “Claude”, lo dice bien claro: “No sabemos cómo saber en qué tipo de aplicación va a surgir la capacidad de causar daño, ya sea de manera suave o impredecible”. Las alucinaciones o los errores solo son la punta del iceberg de este lado oscuro de la IA. Un ejemplo, ya que estamos: ChatGPT se equivocó cuando le pregunté, para escribir esta entrada del blog, quién había creado Anthropic y se lo atribuyó a los jefes de OpenAI, Sam Altman y Greg Brokman, en vez de a los hermanos Amodei, que sí estuvieron dentro de OpenAI, pero se marcharon precisamente para fundar Anthropic. “Mil disculpas, cometí un error en mi respuesta anterior”, respondió ChatGPT cuando le señalé que se había equivocado de medio a medio. Lo bueno es que hay muchos modelos de IA. Si usted hace lo que hice yo, que ya sabía que Anthropic era de los Amodei, evitará errores: preguntar a otra IA. Perplexity, en mi opinión mucho mejor que otras IA porque sus respuestas se basan en fuentes concretas consultables que además cita, sí acertó. No hay que fiarse de una, sino preguntar a varias.

Todo esto lo ha resumido muy bien uno de los popes de la tecnología, Jeff Bezos, el fundador de Amazon. En una reciente entrevista, Bezos señaló al responder sobre su visión de la Inteligencia Artificial con conceptos que van más allá de la tecnología o la ingeniería. “Los grandes modelos de lenguaje no son inventos, son descubrimientos”, afirma. Y precisa: “Las sorpresas constantes sobre sus capacidades demuestran que nos son objetos diseñados por ingeniería, sino más bien descubrimientos”. Bezos sí es del ala de los integrados y muestra su optimismo por la IA: “Creo que es más probable que estas poderosas herramientas nos ayuden y salven antes que desequilibrarnos y destruirnos”. Amén, don Jeff…



Source link

Científicos del CSIC y la UPV descubren un método de generación de nanopartículas metálicas para su uso como catalizadores

Científicos del CSIC y la UPV descubren un método de generación de nanopartículas metálicas para su uso como catalizadores


Un equipo de investigadores del Instituto de Tecnología Química (ITQ), centro mixto del Consejo Superior de Investigaciones Científicas (CSIC) y la Universitat Politècnica de València (UPV), y el Instituto de Aplicaciones de las Tecnologías de la Información y de las Comunicaciones Avanzadas (ITACA-UPV) ha descubierto un nuevo método más sostenible y económico para fabricar nanocatalizadores metálicos, con un gran potencial en el sector industrial y cuyo uso contribuiría a la descarbonización del sector. El trabajo se ha publicado en la revista ACS Nano.

Este nuevo método está basado en el proceso de exsolución activado por radiación de microondas. La exsolución es un método de generación de nanopartículas metálicas sobre la superficie de materiales cerámicos. “En condiciones de temperaturas elevadas y atmósferas reductoras (normalmente hidrógeno), átomos metálicos de la propia estructura del material migran a su superficie, formando allí nanopartículas metálicas ancladas a la superficie. Este anclaje aumenta significativamente la resistencia y estabilidad de estas nanopartículas, lo que repercute positivamente en la eficacia de estos catalizadores”, explica Beatriz García Baños, investigadora del Área de Microondas de ITACA-UPV.

En el trabajo publicado ahora en ACS Nano, los investigadores del CSIC y la UPV han demostrado que, gracias al uso de la radiación de microondas, este proceso se puede llevar a cabo a temperaturas más moderadas y sin necesidad de emplear atmósferas reductoras.

“De esta forma, se pueden generar nanocatalizadores activos de níquel, en un proceso de exsolución más eficiente energéticamente. Estos catalizadores han demostrado ser activos y estables para la reacción de producción de CO a partir de CO₂, obteniéndose un producto de interés industrial y que contribuye a la descarbonización del sector”, destaca Alfonso Juan Carrillo del Teso, investigador del CSIC en el Grupo de Conversión y Almacenamiento de Energía del ITQ.

El proceso de exsolución demostrado en nanopartículas de níquel se ha realizado a temperaturas alrededor de 400 °C y en tiempos de exposición de pocos segundos, mientras que el procedimiento convencional de exsolución en estos materiales ocurre a temperaturas de 900 °C, con tiempos de unas 10 horas. Además, esta tecnología permite realizar la exsolución sin hacer uso de hidrógeno.

“Por todas estas razones mejoramos la sostenibilidad del proceso. Además, al poder obtener los catalizadores usando temperaturas más suaves y menores tiempos de exposición, reducimos los costes del proceso, en lo que influye también el no tener que usar hidrógeno como gas reductor”, añade Beatriz García Baños.

Aplicaciones

El método desarrollado por el equipo del CSIC y la UPV está ideado fundamentalmente para su uso en procesos catalíticos de alta temperatura para almacenamiento y conversión de energía renovable. También podría aplicarse en reacciones de reformado de biogás para la producción de gas de síntesis (precursor de combustibles líquidos), reacciones de hidrogenación de CO₂ aplicables a los sistemas Power-to-X, funcionalización de electrodos para pilas de combustible y/o electrolizadores de alta temperatura.

 



Source link

¿Qué hay detrás del acuerdo de Axel Springer con OpenAI?

¿Qué hay detrás del acuerdo de Axel Springer con OpenAI?



Para poder explicar por qué una editora de tanto fuste en el concierto mundial de medios de comunicación como el grupo Springer ha firmado un acuerdo con OpenAI, creadora de ChatGPT, para permitirle que utilice sus contenidos en el entrenamiento de sus modelos de IA, habría que recuperar aquel viejo adagio clásico de la estrategia posibilista: “Si no puedes con tu enemigo, únete a él “. No es baladí el asunto porque Springer se descuelga de la guerra abierta que aún mantiene buen parte de la prensa mundial y otros creadores de contenidos por la utilización de materiales con derechos de autor en el entrenamiento de los LLM. Cuando un perro viejo como Mathias Döpfner hace ese movimiento es porque se está dando cuenta de que, diga lo que diga la IA Act europea, que establece la obligatoriedad (relativa) para los propietarios de los grandes modelos de IA Generativa de revelar con qué contenido protegido los entrenaron, esa puede ser una batalla legal de final incierto (el argumentario de las grandes empresas de IA que no ven delito en ese uso utiliza abogados de los mejores bufetes del mundo: aquí un ejemplo). Döpfner, el CEO y propietario del 22% de las acciones del emporio Springer, creado en Alemania con el Bild Zeitung o el Die Welt pero en el que tras su salto a EEUU con las compras de Bussines Insider y Politico ya no se pone el sol, fue uno de los primeros del sector a nivel mundial que tuvo claro hace tres lustros que el futuro de los medios de comunicación sería digital o no sería. Su olfato fue infalible entonces, por lo que hay que tener muy en cuenta esta apuesta actual. Un envite que seguramente tiene mucho que ver con que las IAG (Inteligencias Artificiales Generativas) empiezan a usurpar cada vez más a Google su papel hegemónico en la ordenación del contenido en la Red transformándose poco a poco en auténticos buscadores. En Springer habrán pensado que es preferible estar presentes en esas respuestas de ChatGPT, las citas a sus medios serán ahora obligadas para la IA de Sam Altman con este acuerdo, que seguir a merced de Google y su errática trayectoria de los últimos meses, que ha masacrado las audiencias de muchos medios y provocado pérdidas millonarias.

Google necesita cambiar desesperadamente para ponerse al nivel de sus competidores en el despliegue de la Inteligencia Artificial

Esa deriva de Google está más que justificada por el test de estrés al que ChatGPT le ha sometido desde que lanzó su IA hace poco más de un año. Hace tiempo que no era un secreto que el sistema de “SERP’s”, las páginas de resultados que el algoritmo de Google devolvía con cada búsqueda, eran un modelo en clara decadencia. Su transformación, según dicen los especialistas, puede acabar también con el sacrosanto sistema de optimización de las webs tejido en torno al SEO para aparecer lo más arriba posible en esas búsquedas, que tanto poder dio al buscador de Mountain View como dinero y tráfico a quienes lo utilizaron con destreza. No obstante, Google puede estar rezagado en el negocio de la IA, pero no ciego. Los precipitados cambios en el core de su algoritmo del buscador de los últimos cinco meses, tantos como en todo el lustro anterior, demuestran que Alphabet ya está “bailando”, como dijo el CEO de Microsoft, Satya Nadella, y no quiere quedarse atrás en esta carrera (algunos cifran ya en 30.000 millones de dólares las posibles pérdidas que le puede infligir no liderar el despliegue de la IA). De ahí la reacción brutal que se lleva por delante un sistema que le ha dado el liderazgo mundial y producido centenares de miles de millones de dólares de beneficio. Pero todo eso está ahora en riesgo, de ahí que en cuanto la “gran G” tenga Bard, potenciado por Gemini, su último y parece que brutal LLM, la página de búsquedas de Google ya no será lo mismo y su nuevo sistema, Search Generative Experience (SGE) se implantará en toda su crudeza. La IA generativa le permitirá prescindir primero de los enlaces a resultados, al elaborar un resumen que puede hacer innecesaria cualquier consulta posterior a otros enlaces, e individualizar después sus resultados de búsqueda en función de los perfiles que ha atesorado durante años estudiando nuestra forma de navegar (lo que la IA Act europea quiere controlar ahora). En ese nuevo paradigma “googeliano”, la autoridad de una web dependerá de la fidelidad de sus usuarios, no del ranking de Google como hasta ahora. Se parecerá más a una red social como las de Meta, Facebook o Instagram, que al buscador que era, algo que ya viene ensayando con Discover, su servicio de polémicas recomendaciones de temas y noticias para los móviles de Android, desde hace unos años. Todo ello configura un brutal cambio en el statu quo de la Red, tal y como la hemos conocido hasta ahora, con el fin del SEO como evangelio del marketing online y, por ende, el declive, no se sabe si definitivo, de las audiencias millonarias venidas de ámbitos lejanos que tantos ingresos en publicidad programática reportaban a quienes practicaban esa optimización para tener contento a Google. Algo que quita el sueño en la mayoría de los medios de comunicación.

Por otro lado, el movimiento de Springer no puede esconder que también OpenAI necesitaba despejar nubarrones del horizonte en dos sentidos. El primero, minimizar el posible aluvión de recursos judiciales (aquí se puede ver un ejemplo de las demandas que ha recibido, solo en EEUU) y, segundo, evitar que cada vez se le cierren más puertas de proveedores de contenidos. Las IA aún requieren de billones de datos para seguir entrenando sus modelos, algo que se le estaba poniendo más difícil a los de Sam Altman en los últimos tiempos. Desde que se lanzó en el pasado mes de agosto GPTBot, un rastreador (crawler) que “blanquea” la entrada por las bravas en las webs ofreciendo a sus propietarios la posibilidad de bloquear el acceso, (antes entraba sin dar esa opción, “raspaba” (scraping) de forma inmisericorde las webs y se llevaba todo lo que encontraba a su paso sin que nadie se enterara), cada vez son más los dan un portazo. Aunque ahora llaman educadamente, al “crawler” de OpenAI ya le están diciendo que no un 30% de las 1.000 primeras webs del mundo por tráfico, muchas de ellas medios de comunicación. El bloqueo también se ha hecho extensivo a los robots de Common Crawl, al parecer el cooperador necesario que le abrió las puertas a Altman de 100 millones de webs; Google-Extended, el “robot” de la AI de Alphabet, y el de Anthropic, el infatigable “crawler” de la IA “Claude”, de los hermanos Amodei, antiguos miembros de OpenAI que cuentan con dinero en su proyecto de Google y Amazon, nada menos. No es extraño por otro lado que en esta lista de “rastreadores non gratos” Google tenga cuatro veces menos puertas cerradas que OpenAI. Google-Extended, el robot específico para IA, se anunció hace apenas tres meses. Esto quiere decir que hasta hace tres meses había que tener nervios de acero y alma de boina verde para cerrar la puerta de tu web al rastreador único del líder mundial con un 90% de la cuota de mercado de búsquedas, que podía hacer, con mano invisible, que te fuera muy bien o que podía hundirte en la más absoluta de las miserias, sin que en ninguno de ambos casos la responsabilidad fuera suya. Aún hoy, sigue dando miedo.

En el gráfico de originality.ai, una web que se dedica a buscar contenido plagiado e identificar el que han hecho las IA’s, se puede ver cómo cada vez más las puertas se cerraban para las Inteligencias Artificiales. Sin datos, ya lo hemos dicho aquí alguna vez, la IA’s lo pierden todo. La reacción era previsible, aunque aún hay inmensos recursos en la web, dominados por autores que desconocen su inmenso valor actual, que no ponen pegas a su utilización. ¡Todo por la causa de la IA!





Source link