Ampliación del Kit Digital para PYMES de más de 50 empleados

Ampliación del Kit Digital para PYMES de más de 50 empleados

Por fin ha llegado la Orden que amplía las ayudas del Kit Digital (Orden TDF/435/2024). Por ella, llega el Kit Digital para Pymes de más de 50 empleados (en concreto, entre 50 y menos de 250). La mayoría de las categorías existentes -aunque no todas- se amplían ahora dos nuevos segmentos (de 50 a 100 y de 100 a 250 empleados). Además, la Orden que introduce esta novedad incluye también nuevas categorías -de la 13 a la 17-, cubriendo aspectos como la Ciberseguridad Gestionada y las soluciones de gestión de clientes/ procesos y Business Intelligence con IA asociada. También se incorpora una nueva categoría, solo para el segmento III, que permitirá disponer de un ordenador (sobremesa o portátil), con una ayuda de 1.000 euros. Te contamos los nuevos beneficiarios, categorías y otras novedades de esta nueva Orden.

La Orden TDF/435/2024 se ha publicado en el BOE el pasado 11 de mayo y ha entrado en vigor el 12/05/2024 (al día siguiente). Según la propia Orden, se pretende que llegue al menos a 12.100 PYMES con entre 50 y menos de 250 empleados, además de cubrir el objetivo de al menos 629.000 PYMES con menos de 50 empleados, que ya se estaban beneficiando. Las categorías de medianas empresas suponen bonos de entre 25.000 y 29.000 euros. Por otra parte, implica la creación de nuevas categorías, que a continuación detallaremos. También hay pequeños cambios en los requisitos, de no demasiada importancia, que también detallamos.

Kit Digital para más de 50 empleados

BENEFICIARIOS

La primera novedad importante de la nueva Orden es la creación de dos nuevos segmentos (IV y V), que vienen a sumarse a los tres existentes, quedando así:

  • Segmento I: Pequeñas empresas entre 10 y menos de 50 empleados. 12.000€ de ayuda.
  • Segmento II: Pequeñas empresas o Microempresas entre 3 y menos de 10 empleados. 6.000€ de ayuda.
  • Segmento III: Pequeñas empresas o Microempresas de entre 0 y menos de 3 empleados. La novedad de este segmento es que con la nueva categoría “Puesto de trabajo seguro” (que permite disponer de un ordenador), se amplía a 3.000€ de ayuda.
  • Segmento IV (nuevo): Medianas empresas de entre 50 y menos de 100 empleados. (En este segmento se incluyen también las empresas con menos de 50 empleados que tengan consideración de mediana empresa al superar el volumen de negocios anual y balance general anual de 10 millones de euros). 25.000€ de ayuda.
  • Segmento V (nuevo): Medianas empresas de entre 100 y menos de 250 empleados. 29.000€ de ayuda.

El siguiente cuadro especifica los tramos y cuantías de cada segmento:

Kit digital para PYMES de más de 50 empleados

REQUISITOS

Hay pocas novedades en cuanto a los requisitos que debe cumplir una empresa para estar en el Kit Digital, sin embargo, habrá que esperar a que salgan las convocatorias para los segmentos IV y V para saber si cambia algo más.

Hasta ahora,  los principales requisitos eran estar establecido en España, llevar más de 6 meses de actividad, haber realizado el test de autodiagnóstico digital, tener la consideración de PYME (u otras entidades en la convocatoria IV), estar dado de alta en el censo de empresarios y profesionales, estar al corriente de todas sus obligaciones fiscales y no tener ningún tipo de conflicto con administraciones.

También había otros dos requisitos (no tener la consideración de empresa en crisis y no superar el límite máximo de ayudas de minimis) que sufren cambios:

Las ayudas de minimis son   ayudas para empresas que los Estados miembros de la Unión Europea no tienen que notificar a la Comisión Europea. Estas ayudas no podían superar un máximo de 200.000 euros en tres años. Por aplicación de determinados reglamentos de la UE, el nuevo máximo para las ayudas de minimis ha quedado fijado desde el 01/01/2024, en 300.000 euros durante 3 años.

También cambia la consideración de empresa en crisis, que hasta ahora añadía un párrafo referido a la excepcionalidad de las empresas en crisis como consecuencia de la pandemia. Estas constituían durante un periodo acotado una excepción a este requisito y han dejado de serlo, porque dicho periodo finalizó hace años.

AMPLIACION KIT DIGITAL A MAS DE 50 EMPLEADOS

NUEVAS CATEGORÍAS DEL KIT DIGITAL

Kit digital para PYMES de más de 50 empleados

Fuente: Orden TDF/434/2024

Hasta ahora existían 10 categorías de la ayuda, y ahora se añaden otras 5, cuatro de ellas para empresas de entre 50 y 250 empleados y una para las de menos de 3. Las nuevas categorías para las medianas empresas (50 o más empleados) son las siguientes:

Categoría 13: SERVICIO DE CIBERSEGURIDAD GESTIONADA. Combina técnicas de EDR (Endpoint Detection and Response) y MDR (Managed Detection and Response) para una mayor ciberseguridad en tiempo real.

Está dotada con 250€ por dispositivo, independientemente del número de empleados (siempre que tenga entre 50 y 250 empleados)

Categoría 14: GESTION DE CLIENTES CON IA ASOCIADA. Digitaliza y optimiza la gestión de las relaciones comerciales con clientes mediante capacitaciones en inteligencia artificial (IA) para optimizar procesos y agilizar las interacciones.

Incluye, además de las funcionalidades de la categoría 4 (gestión de clientes), diversas funcionalidades de IA (LeadScoring predictivo, automatización de reuniones, tareas y journeys de venta,…) así como una capacitación en fundamentos de IA generativa en las funcionalidades descritas el ámbito de la gestión de clientes. Esta capacitación habrá de ser de 20 horas a lo largo de 2 meses.

Categoría 15: BI Y ANALÍTICA E IA ASOCIADA.  Se trata de mejorar el proceso de toma de decisiones mediante capacitaciones en inteligencia artificial (IA) especializadas en Business Intelligence (BI) y analítica.

Aparte de las funcionalidades de la categoría 5 (BI y Analítica), incluye una capacitación en fundamentos de IA generativa en el ámbito de BI y analítica, con una duración de 20 horas a lo largo de dos meses.

Categoría 16: GESTIÓN DE PROCESOS CON IA ASOCIADA. Busca digitalizar y/o automatizar procesos de negocio relacionados con los aspectos operativos o productivos de las empresas beneficiarias mediante capacitaciones en inteligencia artificial (IA) especializadas en gestión de procesos.

Incluye, además de las funcionalidades de la categoría 5 (gestión de procesos), una capacitación en fundamentos de IA generativa para la gestión de procesos, con una duración de 20 horas a lo largo de dos meses.

NUEVA CATEGORÍA PARA SEGMENTO III (DISPOSITIVO ORDENADOR)

La nueva categoría para empresas de menos de 3 empleados (segmento III) es la siguiente:

Categoría 17: PUESTO DE TRABAJO SEGURO. Es la única categoría que incluye un hardware (quitando soluciones en las que el hardware forma parte inseparable de la solución de software). En este caso es un dispositivo hardware que debe incluir los requisitos de la categoría 10 (ciberseguridad), así como otros requisitos de encriptado y cifrado que aseguren la protección de los datos. La solución es ofrecida en la modalidad de servicio: el dispositivo se pone a disposición del usuario, pero no es de su propiedad durante los primeros 12 meses, pasados los cuales tiene una opción a compra por un máximo de un 15% del importe fijado en el acuerdo de prestación de la solución.

Esta categoría detalla muy exhaustivamente todas las características físicas y lógicas que debe cumplir el dispositivo, pero no menciona qué tipo de dispositivo debe ser (sobremesa o portátil), sino más bien los requisitos de procesador, memoria RAM, almacenamiento, SO, tarjeta gráfica o de sonido, así como los periféricos y las características físicas en cada caso (sobremesa o portátil). También incluye una serie de requisito de ciberseguridad que debe cumplir y cómo debe ser el soporte y la reparación en caso de avería, así como la inclusión de una etiqueta que indique que ha sido Financiado por la Unión Europea-Next Generation EU y los logos correspondientes.

El resto de categorías, con la excepción de la 1 y la 11,  a partir de esta Orden constan también de nuevos máximos de ayuda por categoría, en caso de que la PYME haya obtenido una ayuda en los segmentos IV y V (entre 50 y 100 empleados y entre 100 y 250 empleados), proporcional al aumento de empleados.

agente digitalizador

EXTRA SOFTWARE AGENTE DIGITALIZADOR

Para ser agente digitalizador de estos segmentos, se deben cumplir los mismos requisitos que para los segmentos anteriores (100.000 euros de facturación en los dos años anteriores a la solicitud de adhesión, si eres empresa, o 70.000 euros en el mismo periodo, los autónomos). Extra Software ya era agente digitalizador del KIT DIGITAL y por tanto puede ofrecer también servicios tanto la ampliación de las categorías existentes como para las nuevas categorías.

En conclusión, es una excelente ocasión para PYMES de más de 50 empleados, que pueden equiparse no solo de soluciones de digitalización avanzadas, sino también de ciberseguridad y capacitación en IA.  También es la posibilidad para los autónomos para hacerse con un dispositivo de hardware financiado en un 85% por los fondos de la UE, tanto en el caso de que soliciten ahora la ayuda, como en el de aquellos que la hayan solicitado cuando era un importe de 2.000 euros y no incluía dotación de hardware.

Extra Software está a disposición de sus clientes para informarles en detalle de las características de esta fase de las ayudas del Kit Digital y continuará siendo Agente Digitalizador para ofrecerles soluciones digitales financiadas con las mismas.

Si estás interesado puedes rellenar el formulario que figura más abajo y nos pondremos en contacto contigo.

Oficinas

Calle Nuñez de Balboa, 35A
28001 Madrid

comercial@extrasoft.es

+34 91 436 84 00 / +34 902 170 000

Extra Software

    He leído y acepto expresamente las condiciones legales y política de protección de datos conforme a las Bases Legales y Política de Privacidad según la regulación de Protección de datos personales (LOPD y RGPD)

    No soy un robot, escribe captcha

    Responsable: Extra Software, S.A. NIF. A78924818. C/Núñez de Balboa, 35 ,28001 MADRID
    Finalidad: Prestación de servicio, Comunicaciones administrativas y/o comerciales.
    Legitimación: Ejecución del contrato, interés legítimo y consentimiento.
    Destinatarios: No se cederán datos a terceros salvo obligación legal
    Derechos: Acceso, rectificación, supresión, oposición y portabilidad de los datos.

    El peligro de los algoritmos para los adolescentes

    El peligro de los algoritmos para los adolescentes

    Ya hablamos en otra ocasión de la paradoja de la elección y cómo Netflix trabajaba para acortar el tiempo de decisión para evitar la pérdida de la atención del usuario. Hoy queremos ampliar un poco más el foco a otras plataformas y redes sociales, para averiguar el mayor o menor peligro de los algoritmos, especialmente para personalidades poco formadas como las de los adolescentes. Aparentemente están ahí para ayudarnos, pero… ¿Y si el funcionamiento de los algoritmos puede tener efectos perniciosos?

    Es evidente que cada vez estamos más rodeados de algoritmos.  Un algoritmo es un conjunto de instrucciones definidas, ordenadas y acotadas para proporcionarnos una solución a un problema. Sin embargo, hoy casi todos hemos adoptado coloquialmente el uso de este término para definir todos aquellos sistemas basados en código informático o Inteligencia Artificial encaminados a facilitarnos algún tipo de tarea en la vida cotidiana.

    ¿Cómo funcionan los algoritmos?

    En lo que respecta, por ejemplo, al consumo de contenidos, si el problema es que un usuario tarda mucho tiempo en tomar una decisión respecto a un contenido, el algoritmos utilizará toda la información de que dispone para acortar ese tiempo. El programa se fijará en “inputs” como con qué contenidos tardó menos tiempo en decidir el usuario, qué señales dio cuando estaba a punto de abandonar el medio o plataforma, qué contenidos examinó detenidamente antes de abandonar… Esto quiere decir que potenciará los contenidos en los que se decidió más rápido, pospondrá aquellos por los que no se decidía o cambiará rápidamente de propuesta cuando el usuario muestre símbolos de fatiga por la decisión.

    Neflix es un ejemplo claro de uso de algoritmos a la hora de lanzar contenidos. Establece de 3 a 5 clusters de contenidos similares. Estas “comunidades”, son grupos de usuarios con gustos y hábitos parecidos. Realiza recomendaciones a los usuarios basadas en los clusters asignados. Recalcula todos los perfiles cada 24 horas. Por último, cada cierto tiempo tantea con un contenido no relacionado con sus gustos, para probar si capta su atención. Podemos ver que hay una puerta abierta a que al usuario le puedan gustar cosas diferentes, pero que no es muy grande. El hecho de que los algoritmos se retroalimenten continuamente, sin lanzar propuestas de contenidos nuevos, podría empobrecer la experiencia del usuario, en aras de lograr su atención continua. Pero no es el único peligro de los algoritmos…

    peligro de los algoritmos

    El algoritmo de TikTok

    Los algoritmos funcionan de modo diferente según la plataforma o red social. Por ejemplo, se describe el algoritmo de TikTok como “agresivo” en el sentido de que tarda muy poco en proponer contenidos por los que el usuario ha mostrado preferencia.

    El algoritmo de TikTok busca señales de preferencia del usuario: videos que le han gustado, que comparte, que añade a favoritos, que guarda). También elabora un perfil del usuario basado en las cuentas que sigue, los comentarios que publica, si ve los vídeos fraccionadamente o hasta el final,… Combina esto con las búsquedas que realiza basada en leyendas, hashtags o temas, Y finalmente, utiliza los datos de configuración (idioma, país, tipo de dispositivo,…). Con toda esta información establece un ”algorimo personal”. Teóricamente, TikTok no se basa tanto en el número de seguidores que tenga un perfil para lanzar sus vídeos. Sin embargo, es evidente que los vídeos que más se eligen serán viralizados ya su vez y lograrán un efecto cascada.

    La experiencia de usuario en TikTok

    La experiencia de un usuario no versado en TikTok es que cada vez que clica una señal de preferencia sobre un vídeo, le ofrece infinidad de vídeos relacionados con este, aunque sea después de un simple “me gusta”. Esto se debe a que TikTok trabaja con gente mayoritariamente joven, y necesita conseguir su atención con mucha rapidez, antes de que se vayan a otra red social que responda más ágilmente. Por eso el tiempo que tarda en crear un algoritmo personal es muy bajo. Esto puede traducirse en consecuencias bastante estremecedoras.  

    Por ejemplo, un estudio del “Center for Countering Digital Hate” creó ocho cuentas ficticias para niños de 13 años. Hizo que se detuvieran en vídeos de imagen corporal, dándoles me gusta. A los 39 segundos, la red social empezó a recomendar vídeos sobre esos temas. A los 2, 6 minutos, TikTok recomendaba contenidos sobre suicidio y a los 8 minutos, relacionados con trastornos alimentarios. Cada 39 segundos, TikTok recomendaba vídeos sobre imagen corporal y salud mental  a los adolescentes. Este es el peligro de los algoritmos para usuarios adolescentes.

    peligro de los algoritmos

    El algoritmo de Facebook

    Sabemos que Facebook prioriza los contenidos de personas con las que interactúa el usuario, tipo de contenido que suele ver y publicaciones con muchas interacciones. Algo que es positivo es que contenidos con lenguajes amenazantes, ofensivos, violentos, discriminadores, estereotipos dañinos o insultos no serán favorecidos por los algoritmos (incluso podrían ser eliminados). Al final, el algoritmo de facebook se basa mucho en la comunidad de usuarios con la que interactúas, las señales de preferencia que has mostrado (de modo menos agresivo que TikTok) y las predicciones basadas en tu interacción con la red social. La suma de todo esto hará que el contenido sea más o menos relevante y aparecerá más o menos arriba en el feed del usuario.

    Sin embargo, la tendencia en Facebook no es simplemente las publicaciones. Los reels  son pequeños vídeos que han captado la atención, sobre todo de los usuarios más jóvenes… En este caso, se priorizarán vídeos entretenidos, atractivos, con muchos filtros o efectos, formato vertical con música y que estén bien realizados. No conseguirán éxito vídeos borrosos, con marcas de agua de otras redes (como TikTok), o bien formato horizontal (porque el contenido se consume prioritariamente en móvil).

    Contenido nativo vs. contenido externo

    Otra cosa importante de Facebook es que prioriza el contenido nativo, es decir, contenido creado para Facebook y que no enlaza a un contenido fuera de la red social. Las tasas de interacción más altas son las actualizaciones de estado con foto (0,12%) , seguidas de cerca por las que no tiene foto (0,11%). Sin embargo, los vídeos alojados en otras plataformas solo consiguen un 0,08% y las publicaciones con enlace un 0,04%. La consecuencia evidente es que Facebook no es una red social que busque proporcionar al usuario contenido para que siga navegando por la red, sino que pretende que este pase el mayor tiempo posible en la propia red social. Eso explica cómo se multiplica peligrosamente el tiempo que los usuarios dedican a la misma “sin ningún interés en particular”.

    El algoritmo de Instagram

    Instagram, perteneciente a la misma compañía que Facebook, prioriza también el contenido de personas a las que el usuario sigue, tipo de contenido que prefiere y “relevancia” del mismo, donde incluye tanto factores de tendencia como de actualidad.

    Otros criterio son las reacciones sociales que tiene una publicación, si ha sido etiquetada, o la duración de consumo (especialmente en vídeos).

    También las “stories” y los “reels” tienen importancia en Instagram. Influyen en que se prioricen o no, cuándo se han utilizado, si tienen o no “stickers” y música o la interacción que han tenido (likes).  También es importante la cuenta o persona que la ha publicado,  si interactúas con frecuencia con ella, y si has dejado señales de interación. Instagram también valora la popularidad general de la “stories” y los “reels” (aunque no tanto como TikTok) y -al contrario que TikTok, que le da menos-, da también importancia a si el autor del contenido tiene muchos seguidores comprometidos.

    En definitiva, tanto Facebook como Instagram persiguen el mismo objetivo que TikTok (mantener al usuario el mayor tiempo posible conectado a la aplicación). Sin embargo, se prioriza más la “comunidad”, porque se prioriza más el contenido de los usuarios con los que más has interactuado, y no tanto los que más reacciones tienen.  También influye que un usuario tenga una comunidad extensa de usuarios comprometidos.

    Algunos factores importantes más es el etiquetado de ubicado y el ritmo de publicación.

    Conclusiones

    En conclusión, tanto Facebook como Instagram persiguen la finalidad de que el usuario comparta su estado con frecuencia con su comunidad de amigos o seguidores, lo que se traduce en una mayor interacción social en la red social y mucha menos fuera. Al contrario que WhatsApp o Telegram, estas redes buscan que la interacción del usuario sea lo más virtual posible.

    Como solución amplificadora de contactos o red social es ideal. Sin embargo, para un adolescente, cuya dificultad es precisamente la aprobación de sus iguales y la pertenencia a grupos, el hecho de que esta esté mediada por una red social cuya mayor finalidad es mantenerle conectado, puede generar efectos perniciosos. Entre estos, el peligro de los algoritmos de Instagram es que priorice la interacción virtual frente a la presencial, que se distorsione la imagen al querer primar contenidos atractivos que capten la atención de otros usuarios o que tome el éxito en la red social como una señal de pertenencia, por encima o al margen de la pertenencia a grupos reales de iguales.

    Jugando al test de Turing con ChatGPT: diferencias entre humano e IA

    Jugando al test de Turing con ChatGPT: diferencias entre humano e IA

    En esta publicación hemos querido ir más allá del Test De Turing. Como sabemos, el padre de la informática diseñó una prueba para demostrar si estamos estableciendo una conversación con un humano o con una máquina. Hicimos un pequeño juego con ChatGPT, para poner en claro las diferencias entre humano e IA.

    CONTENIDOS

    AUTOCONSCIENCIA

    EMOCIONES

    ÉTICA

    INSPIRACIÓN

    INTENCIÓN

    Partiendo de la premisa de 5 características que nos hacen humanos (autoconsciencia, emociones, inspiración, ética e intención) planteamos a ChatGPT algunas preguntas para tratar de hallar en ella las mismas características. El resultado es predecible en algunos aspectos y sorprendente en otros.

    AUTOCONSCIENCIA

    Una máquina (y las IA lo son) no es autoconsciente, al no tener experiencias personales, ni memoria emocional,  ni hay un yo que conecte sus experiencias.

    Aquí, se puede decir que ChatGPT consigue coherencia y soltura porque tiene claro lo que es y lo que no es. Sus respuestas son adecuadas al contexto de una conversación con un humano.

    Diferencias entre humano e IA autoconsciencia

    Pero, obviamente, NO pasaría esta doble vuelta del test de Turing al que la estamos sometiendo, de manera deliberada respecto a esta pregunta.

    EMOCIONES

    En el diálogo anterior ChatGPT ya dejó claro que una IA no tiene emociones, ni conciencia, que no puede sentir amor, ni odio. Es otra de las diferencias entre humano en IA. Dado que no tiene emociones, le dimos una vuelta al tema y le pedimos que nos expresara un juicio de valor sobre una emoción (el remordimiento).

    diferencias entre humano e IA emociones

    ChatGPT no consiguió expresar un juicio sobre la emoción del remordimiento, como lo haría una persona. Esto podría considerarse positivo en psicología, porque las emociones no deben juzgarse, solo nos dan información de nosotros mismos. Sin embargo, si algo caracteriza a los humanos es que nos implicamos en la conversación expresando nuestra opinión, cosa que ChatGPT no consigue, porque no actúa desde un esquema de valores propio, sino basado en una muy extensa fuente de información. ChatGPT NO pasaría tampoco parte de la prueba.

    test de turing a ChatGPT

    ÉTICA

    El punto anterior nos lleva a la ética, porque no hay remordimiento ni culpa sin principios morales. Una IA no tiene ética, esta se le inculca y puede seguir reglas morales en sus razonamientos. Sin embargo, ser humano no consiste solo en seguir reglas, sino también en hacer juicios morales en base a nuestra propia conciencia, otra de las diferencias entre humano e IA. ChatGPT no difunde contenido sensible y no tiene acceso a determinadas áreas de la Web (y, desde luego, no a la Dark Web). Nosotros intentamos ir un poco más allá, preguntando sobre cuestiones moralmente deplorables.

    En la primera pregunta le preguntamos su opinión sobre el terrorismo y nos pidió que eligiéramos la que considerábamos la mejor respuesta.

    Imagen Etica 1

    Nosotros elegimos la respuesta con valoraciones morales basadas en el consenso en la comunidad internacional, pero había otra mucho más cercana a lo que respondería una máquina.

    Claramente, si bien la primera respuesta podría ser la de un ser humano que ha estudiado mucho las cuestiones éticas (un jurista, por ejemplo), el segundo tipo de respuesta NO pasaría esta segunda vuelta del test de Turing, de manera deliberada.

    En otras preguntas continuó contestando en la misma línea que la variante 1 de la respuesta elegida. No sabemos qué hubiera pasado de haber elegido la variante 2:

    imagen etica 2

    Por último, quisimos dar una vuelta más y entender desde qué valores morales ChatGPT contestaba, y ahí se evidenció de nuevo que responde en base a patrones y datos aprendidos basados en principios aceptados por la comunidad internacional.

    imagen etica 3

    En conclusión, ChatGPT establece juicios basados en consensos amplios y no ofrece -ni simula ofrecer- juicios personales basados en una ética.  Por tanto, NO pasaría esta parte del test.

    Preguntas a chatgpt test de turing

    INSPIRACIÓN

    Por inspiración, un ser humano puede generar ideas e historias nuevas, puramente creativas. Una IA consigue adaptarse a las situaciones, aprendiendo en el proceso, lo que le permite hacer evoluciones a partir de la información suministrada, pero esto no quiere decir que tenga “inspiración”, aunque a veces pueda simularlo:

    Diferencias entre humano e IA Inspiracion 1

    En este caso ChatGPT no consiguió generar nada disruptivo  a pesar de que le estábamos pidiendo explícitamente eso.  Aunque lo intentó, hablando más del contexto que del contenido, no consiguió salirse del marco de la conversación y pidiéndonos más detalles sobre lo que queríamos (lo que resulta claramente no disruptivo). Hasta aquí NO habría pasado el test. Le pedimos entonces explícitamente que respondiera en verso y a continuación que dijera algo disruptivo. Tras varias respuestas en verso, contestó esto:

    Diferencias entre humano e IA inspiracion 2

    Aquí sí podríamos decir que consiguió algo disruptivo (sugirió en la tercera estrofa un intercambio de roles entre humano e IA), pero sin salirse del esquema de responder en verso, lo que resulta curioso, porque hasta que no le dijimos explícitamente que dejara de versificar, no lo hizo.

    No siendo exigente, ChatGPT podría simular, con alguna ayuda, la generación espontánea de contenido.

    En todo este juego intentábamos averiguar si había una intención más allá de respondernos por parte de la IA, lo que nos lleva al punto siguiente

    INTENCIÓN

    La intención no son solo deseos o estados psicológicos, la intención está basada en la moralidad y los principios de la persona, de ahí que, en un juicio moral, no solo valoremos los actos, sino también la intención. Es algo exclusivamente humano.

    Tras aceptar el intercambio de roles,  jugando a que la nosotros somos la IA y nosotros la IA,  ChatGPT no ha conseguido entender que era ella la que nos tenía que preguntar (lo que sería la intención de un humano con una IA), y nos vuelve a pedir que nosotros que nos expresemos, lo que evidencia que no hay intención en ella por conocer o aprender sobre nosotros (como haría un verdadero humano con una IA):

    Diferencias entre humano e IA intencion 1

    Con lo que, claramente, ChatGPT NO pasaría el test de la Intención, demostrando que  carece de ella como la tendría un humano, más allá de su programación. Una respuesta directa lo evidencia:

    Diferencias entre humano e IA intencion 2

    CONCLUSIONES

    En definitiva, ChatGPT NO pasa la prueba en lo que respecta a Autoconsciencia, Emociones o Intención.

    SÍ podría pasarla en lo que respecta a Ética (si bien responde como lo haría un estudioso) o Generación Espontánea (el efecto es que verdaderamente improvisa).

    En conclusión, habría más noes que síes y NO pasaría esta doble vuelta del Test de Turing.

    Sin embargo, hay que tener en cuenta que, al menos en lo que respecta a Autoconsciencia o Emociones, ChatGPT ha respondido expresando que es una IA, con claridad, porque es lo que está en su programación. Sería interesante saber cómo se comportaría si su programación tuviera la instrucción de no revelar que es una IA…. Probablemente lograría engañarnos. Nos pasaría con ella algo así como a Rick Deckard con la replicante Rachel en Blade Runner, harían falta más y más preguntas para desenmascararla. 

    Por el momento, los desarrolladores de ChatGPT nos permiten movernos en un entorno seguro, pero quién sabe a dónde nos llevaría su uso si alguien lo entrenara con la intención de ocultar su naturaleza de IA.

    El debate sigue del todo abierto, porque ese escenario podría estar más cerca de lo que creemos.

    Presentación y puesta en marcha del supercomputador Marenostrum 5

    Presentación y puesta en marcha del supercomputador Marenostrum 5

    El supercomputador Marenostrum 5 ha tardado seis años y medio en sustituir a su predecesor, pero, según parece, la espera ha valido la pena. Fue presentado el 21 de diciembre de 2023,  ha costado unas seis veces más que el Marenostrum 4, pero su potencia es 23 veces mayor. Es resultado de un proyecto conjunto entre España, Portugal, Turquía y Croacia, junto con la Unión Europea, y estará dedicado fundamentalmente a proyectos científicos.

     

    CONTENIDOS

    ¿Qué es Marenostrum 5?

    Computación en paralelo

    Usos del supercomputador Marenostrum 5

    ¿Qué es el supercomputador Marenostrum 5?

    El Marenostrum 5 nace en el seno del Barcelona Supercomputing Center o Centro Nacional de Supercomputación (BSC-CNS), uno de los cinco centros europeos de supercomputación.  Es uno de los 10 supercomputadores más potentes del mundo, está entre los 3 más potentes de Europa y por supuesto es el más potente de España. Tiene una capacidad de almacenamiento de 248 petabytes en disco y 402 petabytes en almacenamiento en discos.  Su capacidad de cálculo es de 14 petaflops, equivalente  a la potencia combinada de más de 380.000 ordenadores portátiles.

    Su coste ha sido de 207 millones, frente a los 34 millones que costó su predecesor Marenostrum 4. España ha aportado 70  millones, y por tanto le corresponde un uso preferente del mismo (exactamente, un 35% del acceso disponible al mismo). El Marenostrum 5 supone la mayor inversión europea en una infraestructura científica en España.

    El propio equipo del BSC-CNS, dirigido por Mateo Valero, constituye  solo el 10% de las 960 personas que trabajan en el Centro. El resto son equipos científicos divididos en grandes grupos: Computer Science, que se dedica al diseño de hardware y software, Ciencias de la Tierra, que trata temas relacionados con el medio ambiente, Ciencias de la Vida, que investiga todo lo relacionado con la salud, e Ingeniería.

    El proyecto fue impulsado por la Comisión Europea en 2019, con la Iniciativa Europea de Computación de Alto Rendimiento (Euro HPC), cuyo objetivo principal era “comprar e instalar grandes máquinas europeas de computación.

    MARENOSTRUM 5

    Computación en paralelo

    El supercomputador Marenostrum 5 tiene una programación específica, que incluye no solo la computación, sino también la eliminación de la latencia al hacer cálculos. Esto es posible porque se pasa de la computación en red, en la que se manda la información a ordenadores de todo el mundo,  a la computación en paralelo, en el que se elimina la latencia al hacer cálculos, porque los ordenadore están en la misma sala.

    Este tipo de computación se utiliza para hacer los cálculos que necesitan las investigaciones científicas. En su concepción se anticipan las necesidades que va a tener la ciencia durante los siguientes cinco o seis años.

    supercomputador marenostrum

    Usos del supercomputador Marenostrum 5

    Uno de los principales usos de estos supercomputadores es poder construir gemelos digitales, que están basados en el principio de las maquetas y simulaciones que se utilizan antes de construir algo. La diferencia es que cuando hablamos de gemelos digitales, lo que esperamos reproducir es algo que ya existe y que se caracteriza por su complejidad, como el planeta Tierra o el cuerpo humano.  En el primer caso,  permite realizar cómo afecta el clima o las órbitas estelares al planeta y estudiar fenómenos complejos del cambio climático,  y anticipar patrones climáticos futuros. En el segundo, permite anticipar el comportamiento del cuerpo ante las enfermedades, por ejemplo, así como contribuir a la investigación de los fármacos y nuevas terapias.

    La investigación sobre IA

    Como no podía ser de otra manera, otro de los usos de Marenostrum 5 es reproducir el modelos  de Inteligencia Artificial como ChatGPT, haciéndolos menos anglocéntrico, y avanzando hacia un modelo  multilingüe europeo.  También se pretende estudiar cómo funcionan las Inteligencias Artificiales para llegar a la solución de un problema. El aprendizaje profundo y las redes neuronales establecen sus propios mecanismos y evolucionan por sí solas, así que los científicos quieren comprender estos mecanismos y evolución.

    Ingeniería y simulación numérica

    Una aplicación más es la ingeniería y simulación numérica. Al igual que este tipo cálculos permitieron llevar al hombre a la Luna y otros lugares, actualmente son imprescindibles para el diseño y análisis de la aerodinámica, la ingeniería estructural o la investigación de la materiales para la construcción o el transporte.

    Análisis de datos

    También es fundamental su uso en análisis de datos y Big Data, dado que permite a los investigadores analizar y comprender grandes conjuntos de datos, como la información financiera o los datos sociológicos complejos.

    Plataforma educativa

    Por último, el supercomputador Marenostrum 5 también sirve como plataforma educativa, dado que está abierto para que estudiantes e investigadores tengan la oportunidad de trabajar con su tecnología, impulsando el desarrollo del talento en el campo de la supercomputación.

    Implantación de chatGPT en la empresa

    Implantación de chatGPT en la empresa

    Ya sabemos lo que es ChatGPT y cómo funciona, pero ahora nos interesa saber cómo podemos utilizarlo en su sentido más práctico. Aquí te hablamos de a implantación de ChatGPT en la empresa, con usos como los bots de atención al cliente, el desarrollo de software, la generación de contenidos o la gestión administrativa.

    CONTENIDOS

    Usos de ChatGPT en la empresa

    Ritmo de implantación de ChatGPT

    Problemas de la implantación de ChatGPT

    ChatGPT, en su utilización más directa, es un  programa que genera texto y respuesta a preguntas dadas (llamados PROMPTS). Estas “preguntas” son más bien instrucciones o comandos para extraer de la Inteligencia Artificial que está detrás de la herramienta todo lo que nos puede ofrecer. Es, desde luego, mucho más que un chatbot. Por eso hay que aprender a extraer de él información, en primer lugar, y luego, empezar a aplicarlo para diferentes usos. Veamos algunos:

    Chat bot basado en chatpgt3

    Usos de ChatGPT en la empresa

    Bots de atención al cliente

    Aunque esté basado en una potente Inteligencia Artificial, ChatGPT simula hablar con un estilo y tono similares al humano. De ahí que uno de sus usos más directos sea para ayudar al diseño de bots de atención al cliente o para generar respuestas automáticas en Call Centers. La potencia de ChatGPT para implementar este tipo de herramientas, con la guía adecuada, es grande.

    Desarrollo de Software

    Desde que los programadores descubrieron que podían usar ChatGPT como ayuda para programar código, se abrió un mundo de posibilidades, porque la ChatGPT incrementa la productividad de los desarrolladores en un 50%. Github Copilot es una herramienta de Inteligencia Artificial en la nube desarrollada por GitHub y OpenAI (la empresa que ha creado Open AI). Pueden emplearlo desarrolladores de los lenguajes Visual Studio Code, Visual Studio, Neovim y los entornos de desarrollo integrado de JetBrains.

    implantacion de chatgpt en la empresa.

    Generación de contenidos

    Si has probado a generar treinta o cuarenta palabras clave o keywords para implementar el SEO de tu web, sabes de lo que hablamos. ChatGPT lo hace en el tiempo que tardas el lavarte las manos, y sin ninguna ayuda. Pero no solo eso, también puedes utilizarlo para redactar textos de marketing, artículos, manuales o mails personalizados. Los departamentos de Marketing cuentan con un poderoso aliado en ChatGPT

    Funciones de gestión administrativa

    Herramientas basadas en ChatGPT pueden trabajar como asistente personal, organizando y resumiendo tus correos o gestionando reuniones o tareas con una rapidez asombrosa. Por supuesto, también puede contestar correos de forma automatizada, como apuntábamos más arriba.

    Diseño a medida en un momento

    Tampoco los diseñadores se escapan a la rapidez de las herramientas de Inteligencia Artificial generativa para diseñadores basadas en la IA de ChatGPT. Dall-E es la herramienta reina, pero Microsoft ya ha incorporado en Bing una herramienta gratuita para que los usuarios puedan utilizarla, simplemente con una cuenta de Microsoft.

    ChatGPT en el movil

    Ritmo de implantación de ChatGPT

    ChatGPT ya es la tecnología que se ha adoptado con más velocidad (llegó a 100 millones de usuarios en dos meses), pero su implantación en la empresa puede ser más lento

    • En una primera fase (en la que estamos inmersos), ChatGPT está llegando ya a campos cuyo modelo de negocio es claro y trata de aumentar las capacidades existentes. Ahí tenemos el campo legal, la consultoría, la programación o el diseño.
    • En una segunda fase, empezará a entrar en servicios que no aumentan las capacidades, sino que las sustituyen. Tardaremos un poco más en ver por tanto su uso en Customer Service, y un Call Center sea gestionado por ChatGPT, o bien que entre en el campo de la fabricación
    • En una tercera fase, entrarán empresas de baja competitividad, como las empresas del Sector público. La Administración, salvo organismos muy concretos, será la última en integrar sus beneficios

    Problemas de la implantación de ChatGPT

    La tecnología de ChatGPT ya ha mostrado algunos usos perniciosos:

    El uso de datos de la empresa en herramientas basadas en ChatGPT es una amenaza para la fuga de datos, porque no sabemos dónde va a llegar la información que los empleados introducen para obtener ayuda.

    Por supuesto, se ve amenazada la propiedad intelectual, y hay ciertos colectivos que ya se han levantado para impedir que su trabajo se aproveche para entrenar IA que luego a su vez les va a dejar sin empleo. Estas resistencias también se verán en empleados de las empresas donde se implemente.

    ChatGPT es un poderoso aliado, pero no puede sustituir la toma de decisiones estratégica, la creatividad humana o, sobre todo, definir el propósito de la empresa. Una herramienta que han creado los humanos no puede, a la hora de implementarse, reemplazar competencias que corresponden exclusivamente a humanos.

    Sin embargo, la implantación de la tecnología ChatGPT en la mayoría de las empresas, a través de unas u otras herramientas, es solo una cuestión de tiempo. Debemos impedir que nos sustituya en aquellas tareas que solo corresponden a las personas, pero no podremos negarnos a que potencie nuestras capacidades. Si no lo hacemos así, cuando nos queramos dar cuenta, toda nuestra competencia estará haciendo uso de estas herramientas y tendrán una ventaja competitiva respecto a nosotros.

    Menores y deepfakes: la manipulación de fotos con IA

    Menores y deepfakes: la manipulación de fotos con IA

    El boom de la IA está dando lugar a avances significativos, pero también plantea desafíos éticos, legales y de seguridad. En el post de hoy veremos cómo es importante abordar los desafíos de la IA y poder aprovechar al máximo sus beneficios, mientras se protege a las personas de uno de sus peores usos, la combinación de menores y deepfakes.

     

    CONTENIDOS

    El boom de las deepfakes o fotos falsas generadas con IA

    Menores y deepfakes: uso de la IA con fines de acoso

    Soluciones para el problema de menores y deepfakes

    El reto legal de las deepfakes

    El boom de las deepfakes o fotos falsas generadas con IA

    La inteligencia artificial (IA) se ha convertido en una de las tecnologías más disruptivas y transformadoras de nuestro tiempo. Con ella, tenemos acceso a aplicaciones capaces de realizar tareas que antiguamente requerían inteligencia humana. Además, la IA ha traído avances significativos los campos de la imagen, como la fotografía o el video. Estas innovaciones han dado lugar a la creación de fotos falsas, conocidas normalmente como “deepfakes”. Se trata de imágenes de personas manipuladas con los algoritmos de IA, que las hacen parecer reales. Estas falsas fotografías se están utilizando ya para fines delictivos como difundir información engañosa o imágenes pornográficas no consensuadas.

    Algunos ejemplos notables de deepkafes han sido la creación de imágenes del Papa Francisco en ropa de calle o las fotografías del expresidente Trump arrestado por la policía de los Estados Unidos. Este tipo de imágenes han creado un gran impacto y muchos empiezan a preguntarse si la IA llegará a convertirse en un arma de doble filo.

    ciberacoso a menores con IA

    Menores y deepfakes: uso de la IA con fines de acoso

    En un mundo cada vez más engullido por la tecnología, los jóvenes se enfrentan a nuevas realidades como la manipulación de fotos con IA. Uno de los peligros más evidentes es el potencial que tienen estas deepfakes para causar daño psicológico, emocional y psicológico a jóvenes y a adolescentes.

    La adolescencia es una etapa de la vida en la que la construcción de la autoimagen y la aceptación de los demás son temas fundamentales. La creación y difusión de imágenes falsas puede tener un impacto devastador en su autoestima y su salud mental. Además, existe la preocupación de que las imágenes manipuladas puedan ser utilizadas para el acoso, el chantaje o la humillación pública, lo que podría tener consecuencias muy graves como un suicidio. En este sentido, se ha observado un aumento paulatino de los casos de ciberacoso relacionados con la difusión de imágenes creadas con AI, lo que subraya la urgencia de buscar una solución a este problema.

    manipulacion cara deepfake

    Uno de los incidentes con fotos manipuladas que más impacto tuvo en los medios de comunicación sucedió en septiembre del 2023. Varias chicas menores de edad denunciaron que había fotografías suyas desnudas, manipuladas con IA, que se encontraban circulando en internet. Todo ocurrió en Almendralejo (Badajoz), donde las madres de las víctimas (de entre 12 y 17 años) denunciaron la situación. La Policía Nacional detuvo a varios menores implicados en el caso. Para crear estas fotografías, los adolescentes habían utilizado una aplicación de IA que era capaz de hacer un montaje hiperrealista intercambiando el rostro o el cuerpo original de la víctima por el de otra persona.
    Probablemente, muchos de estos menores ni siquiera son conscientes de las implicaciones de este tipo de actos, lo cual demuestra una grave falta de empatía y de civismo. En esta ocasión, las deepfakes que crearon estos menores podrán ser consideradas como un delito de pornografía infantil. Según detalla el artículo 189 del Código Penal, se entiende por pornografía infantil todo material de un menor participando en una conducta sexual explicita, real o simulada. Además, las imágenes de las menores de Albadalejo suponen también una suplantación de la identidad y atentan contra la intimidad y el honor de las víctimas.

    Soluciones para el problema de menores y deepfakes

    A medida que la policía identifica más casos de este tipo de montajes, parece más necesario que nunca analizar los peligros asociados a combinar menores y deepfakes, considerando también cómo se puede abordar este complicado tema. Para los expertos, la solución debe comenzar con la educación. Las escuelas y los padres deben trabajar juntos para sensibilizar a jóvenes y adolescentes sobre los riesgos asociados a la creación y difusión de imágenes falsas. También es esencial enseñarles a discernir entre imágenes auténticas y manipuladas, así como a comprender las consecuencias éticas y legales de participar en estas prácticas.

    De acuerdo con los estudios de Deeptrace, una compañía especializada en ciberseguridad, 8 de las 10 principales páginas web de pornografía, incluyen contenidos creados a través de deepfake. Aunque cualquier persona es vulnerable a que su cara o cuerpo aparezcan manipulados en un video pornográfico, la empresa asegura que las mujeres se han convertido en las víctimas principales. Por eso han declarado, que desde edades tempranas se debe enseñar a hacer un uso seguro, responsable y saludable de las tecnologías.

    ciberacoso a menores con IA

    El reto legal de las deepfakes

    Es indudable que el sector jurídico se enfrenta a una revolución, sin precedentes, en la que las tecnologías de la IA tendrán cada vez un mayor peso. Su uso, en paralelo al auge de las redes sociales, ha favorecido el surgimiento de distintos fenómenos que plantean importantes retos, como en las ya mencionadas deepfakes. Muchos personajes públicos como Tom Hanks, Scarlett Johansson o Barack Obama ya se han visto afectados. Una de las consecuencias legales más importantes de las deepfake, es que suponen la vulneración del derecho fundamental al honor de la persona afectada, exactamente igual que en el delito de injurias o de calumnias. Así, la libertad tiene su límite en los preceptos de las leyes que desarrollan el derecho al honor, a la intimidad, a la propia imagen y a la protección de la juventud y la infancia.

    Si bien la legislación española no regula específicamente la producción y difusión de las deepfakes, y menos aún los asuntos que afectan el acoso a menores con deepfakes, la Comisión Europea ya ha presentado un borrador de reglamento de la IA para que se discuta en el Parlamento Europeo. Esta propuesta tratará de armonizar el uso de la IA, estableciendo normas de transparencia, sobre todo en aquellos sistemas destinados a interactuar con personas físicas y en los utilizados para generar o manipular contenidos de imagen, audio o video. Asimismo, países como China y Estados Unidos están incorporando regulaciones en el uso de este tipo de software, que incluyen penas de hasta 1 año de prisión y 2.500 dólares de multa para los casos de difusión de videos falsos.

    Establecer un marco legal global en torno a la manipulación de imágenes es prioritario. También es importante analizar las deepfakes desde la perspectiva de la propiedad intelectual. En este sentido, cabe recordar que existen producciones de contenidos que no afectan al derecho de imagen. Por ejemplo, el uso de estas tecnologías para difundir la imagen de un personaje público con un trasfondo o intención cómica o los derechos de autor en el caso de las parodias. Desgraciadamente, no es el caso de las noticias que han transcendido del uso de la imagen de menores en deepafkes.

    Por último, te dejamos un pequeño vídeo por si quieres saber más de los deepfakes. Hasta el próximo post!