Introduce aquí el contenido de tu 🚨 NOTICIAS IA 🚨: El Google chino despierta y vas a flipar 🤯🔥 – YouTube
Transcript:
(00:00) Hola a todos Soy John Hernández y aquí me tenéis una semana más con el vídeo de noticias de Inteligencia artificial semana muy fuerte porque básicamente desde china vuelven a pegar un golpe sobre la mesa doblando la apuesta que ya hicieron con dips y vemos una nueva Inteligencia artificial que es aún más barata que dipsi y Al mismo nivel de lo que hemos visto hasta ahora una auténtica locura la cantidad de avances que está viendo en las sillas intermedias No necesariamente siendo más inteligentes pero sobre todo siendo más
(00:29) baratas y sobre todo viniendo desde china Pero además de eso Hay muchas más noticias importantes Así que las vamos a ver todas en este vídeo en el tiempo que nos lleve Porque el último vídeo me dijisteis que no queríais que fuesen cortos sino que fuesen lo necesario para cubrir todas las noticias de Inteligencia artificial Así que vamos con ello empezamos sin duda con esta noticia y el gigante que lo ha presentado es baidu baidu es básicamente el Google chino es el la empresa que tiene el explorador de internet con la
(00:56) mayor cuota de Mercado y que realmente tiene un montón de aplicaciones paralelas de la misma forma que tiene Google en occidente Pues bien baidu ha presentado su nuevo modelo Erni Ernie es un modelo de Inteligencia artificial tradicional tipo gpt que no es de razonamiento y el rendimiento es muy bueno De hecho si os fijáis en los benchmarks en algunos supera hasta gpt 4.
(01:24) 5 pero en la mayoría de ellos supera gpt 4 con tranquilidad algo muy parecido al nivel que habíamos visto por parte de dipsi además de ese es modelo Erni baidu también ha presentado la versión de razonamiento de ese modelo como sabéis es un modo que tienen los modelos para pensar antes de responder a este le han llamado x y el resultado de este es también absolutamente increíble de momento no han publicado los benchmarks y no podemos probarlo Porque solo está disponible en China para poder entrar en la web necesitáis un teléfono chino para poder probarlo pero básicamente podéis
(01:52) esperar un rendimiento parecido al que tenéis en dips R1 con lo cual en este caso baidu nos presenta dos modelos uno que es Erni 4.0 5 que sería equivalente a dipsi v3 y uno que es x que sería equivalente a R1 de dipsi recordar que estamos a punto de ver aparecer r2 de dipsy que se ha filtrado que podría estar viniendo en las próximas semanas y veremos con qué nos sorprenden porque desde luego dips peo muy fuerte pero lo más impresionante una vez más viniendo desde china no es tanto el rendimiento del modelo ni dips ni baidu son mejores
(02:25) que chat gpt sino que es más barato y el caso de baidu es excepcional en este pequeño diagrama os quiero enseñar los precios por millón de tokens de salida que tienen los modelos de Inteligencia artificial en el caso de gbt 4.5 estamos en $50 por millón de tokens esto quiere decir que si el modelo nos genera una respuesta que tiene 1 millón de tokens que serían un montón de palabras nos costaría $150 a través de la Api evidentemente normalmente cuando trabajamos con estos modelos no generan millones de tokens sino unas pocas
(02:55) decenas de ellos unos pocos centenares de tokens como respuesta con lo cual los precios Son de céntimos Pero al final la unidad comparativa es el millón de tokens Si vemos gpt 4 veréis que es mucho más barato y cuesta $0 por millón de tokens Esto es algo que ya comentamos cuando salió gpt 4.5 gpt 4.5 es un modelo tan tan grande que es carísimo de utilizar y por eso la Api es tan cara y no parece que Open tenga demasiada intención de que se use de una forma principal el mayor modelo que se utiliza al día de hoy en apis es gpt 4o y estee
(03:26) es el coste que tiene de $0 por millón de tokens en el caso de open tenemos o3 Mini como el modelo de razonamiento más barato que ofrecen es un modelo que tiene un rendimiento muy bueno y tiene un coste de 4.4 por millón de tokens sorprende que sea más barato que gpt 4o pero tenéis que tener en cuenta que los tokens del razonamiento también se cobran con lo cual pueden acabar siendo más caros que los modelos tradicionales en según qué casos de uso Porque esa cadena de pensamiento también nos la cobran como tokens este es el modelo que
(03:53) rinde como o1 pero es más barato y es el modelo de razonamiento más barato que había hasta la aparición de dipsi que apareció con un precio rompedor dipsi R1 tiene un precio de 2,19 por millón de tokens siendo un modelo de razonamiento lo cual es la mitad que el modelo de Open Ai absolutamente increíble además recordar que dipstick sacó una promoción donde el modelo era más barato temporalmente pero este es el precio de tarifa para que nos entendamos Pues bien Si hasta aquí esto ya era sorprendente y hemos visto una bajada de precio radical
(04:22) de los modelos sobre todo viniendo desde china que han reducido a la mitad los costes si nos vamos a ver realmente el precio de este nuevo baido es aú más increíble x1 de baidu tiene un coste de la mitad de dips es decir 1,1 1,10 Perdón por millón de tokens esto es absolutamente increíble porque hace apenas unas semanas teníamos deeps revolucionando el mundo haciendo la bolsa americana caer porque era mucho más barato y de repente nos sale otro modelo de Inteligencia artificial que ya no viene de una pequeña startup
(04:51) pequeñita como dipsi sino que viene directamente del mayor gigante chino de tecnología que sería el Google chino que es baidu y nos pone un modelo a la mitad de precio de lo más bestia que habíamos visto hasta ahora que era dips evidentemente Esto va a revolucionar completamente el panorama de Inteligencia artificial una vez más y lo que estamos viendo Es que los precios caen en picado habíamos visto hasta ahora que de un año para otro la Inteligencia artificial de Open Ai había bajado de precio un 97 por. pero es que
(05:18) esto es más radical aún y podemos esperar bajadas más radicales porque estamos sin ninguna duda en una guerra de precios que está dominando China baidu de momento ha dicho que el modelo lo van a hacer Open source en junio de momento es un modelo Close lo utilizan solo en su web y es gratuito a través de su página web pero solo podéis utilizarlo si os podéis registrar con un teléfono chino así que de momento en occidente no vamos a poder probar baido durante un tiempo hasta que lo abran y lo podamos descargar e instalar de forma
(05:47) local en nuestros ordenadores bien desde luego aparte de esta noticia de baidu la otra noticia de la semana y quien realmente ha sido el protagonista ha sido Google el otro gigante esta vez de occidente porque no han parado de presentar cosas nuevas y lo más más increíble es su nueva ia nativa en imagen que podemos probar a través de a Studio totalmente gratis lo primero que me preguntáis mucho para poder utilizarla tenéis que seleccionar aquí el modelo correcto que es gemini 2 flash image generation experimental si no
(06:15) tenéis Este modelo no va a funcionar y Qué significa que sea una guía multimodal de imagen nativa Pues que básicamente la misma red neuronal que hace el texto que procesa información como chat gpt u otras ías lo que puede hacer es crear imágenes de forma nativa no necesit utilizar un modelo de imagen externo sino que nativamente y me reitero 20 veces es ella misma la misma red neuronal la que genera esas imágenes eso qué quiere decir pues que puede generar muy rápido porque es un modelo flash con mucha calidad y que realmente
(06:45) puede estar muy sujeto a entender la imagen que está generando fijaros en esto [Música] genérale piensa y nos genera una bandeja de croissance perfectamente atractiva añádelo tiras de chocolate a cada crossan Y si queremos podemos simplemente pronte y modificar la imagen que nos ha generado las opciones son prácticamente infinitas y es absolutamente increíble lo que permite hacer un modelo nativo de imagen porque realmente tenemos muchísimo más control que con un modelo de imagen tradicional un modelo de difusión como m Journey o
(07:22) cualquier otra de estas inteligencias artificiales la realidad es que desde la red neuronal tienen un control absoluto de la imagen y esto es algo que no habíamos visto hasta ahora fijaros en este otro ejemplo le voy a subir una foto en este caso voy a subir una imagen que tengo aquí que es una imagen en blanco y negro y le voy a decir colorea esta imagen para que parezca tomada en color Vais a ver cómo intenta procesar esta imagen se procesa por la red neuronal Y a partir de ahí la red neuronal escupe la imagen coloreada como
(07:50) si fuese nativamente en color absolutamente increíble desde luego esto Abre una cantidad de usos que son impensables es decir Se os Puede ocurrir 1000 formas de sacar darle provecho a esto y lo podéis probar gratis en Ai Studio tenéis el link en la descripción pero es que podemos llevarlo mucho más allá fijaros en este prom le voy a decir créame una receta de una tortilla de patatas paso a paso y con imágenes del proceso lo que va a hacer ahora es combinar la parte de texto con a la vez generar imágenes para ilustrar los
(08:16) diferentes pasos del proceso cortar la cebolla cortar las patatas a partir de aquí freír lentamente las patatas y la cebolla y va a crear una imagen para eso y va a ir haciendo las diferentes imágenes que necesite para ilustrar la receta es absolutamente increíble las posibilidades que esto abre porque imaginaros la cantidad de formas en las que nos pueden ayudar los llm si a la vez pueden generar imágenes y por qué no audios y vídeos Es evidente que a día de hoy los llms ya pueden generar lo hemos visto en los voces en los modelos de voz
(08:44) avanzada pero no lo hemos visto de una forma práctica y directamente integrada en plan generarme una canción directamente desde el modelo pero podrían perfectamente la mayoría de estas funciones están siendo capadas por parte de los laboratorios que no quieren revelarlo aún al público porque aún no funciona demasiado bien o por alguna otra razón que no sabemos esto de la imagen Es algo que Open Ai ya mostró cuando presentó gpt 4o allá en abril del año pasado esta tecnología Open Ai la ha tenido disponible desde hace un año y no
(09:14) la han revelado hasta que Google ha decidido sacarlo primero y les ha pasado la mano por la cara una vez más incluso podemos llegar a combinar imágenes lo cual da una cantidad de usos increíbles voy a subir esta foto de un vestido y esta foto de esta modelo y fijaros lo que vamos a hacer aquí le vamos a decir ponle el vestido verde a la chica creamos las dos imágenes y a partir de ahí eh gemini puede combinarlas consiguiendo una imagen nueva donde ella lleve el vestido esto que acabáis de ver se llama virtual tryon es decir es como
(09:43) Le hemos llamado tradicionalmente el mundo de la ia y se trataba de combinar dos imágenes para poder hacer que en el e-commerce tú subas un selfie tuyo y te puedas probar Cómo te va a quedar la ropa Es algo que estaba siendo complicado hacer y que algunos modelos de imagen estaban consiguiendo desarrollar de una forma relativamente compleja pero desde luego con esto es muchísimo más fácil y estoy seguro que como esto está disponible a través de la Api vamos a ver muy pronto aplicaciones destinadas a este uso además de otros
(10:08) 50.000 usos que ha abierto la posibilidad de la imagen nativa dentro de gemini esto no está aún en gemini comercial simplemente en Ai Studio que como sabéis esa web donde podemos probar los modelos de Inteligencia artificial de Google de forma completamente gratuita Y que además sirve para los desarrolladores poder probar los modelos en sus apis antes de lanzarlo Pero esto no es todo la segunda cosa que ha sacado Google esta semana es que podemos pegarle a gemini un vídeo de YouTube directamente y lo parea es decir lo
(10:35) puede procesar en su red interna como si fuese contenido que hubiésemos subido sin necesidad de sacar ese vídeo en ningún sitio y con lo cual yo le puedo decir aquí saca un resumen de todas las noticias mencionadas en el vídeo a partir de aquí gemini se pone a trabajar parea ese vídeo como si fuesen tokens como si fuese nativo Porque recordad que es la única guía que puede procesar vídeo de forma nativa Y a partir de ahí nos dará una respuesta está en base al contenido de ese vídeo de YouTube Esto es algo que vuelve a abrir miles de
(11:04) posibilidades para sacar cosas de vídeos que ya están publicados sin necesidad de tener esos vídeos necesariamente de forma descargada y esto probablemente vulnera copyright de todos los colores que os podéis imaginar porque podéis hacer lo que os lo que queráis imaginaos que tenéis un vídeo en YouTube sobre un curso sobre cómo utilizar algo podéis sacaros apuntes de forma directa si queréis hacer un vídeo sobre un tema podéis meterle varios vídeos de ese tema y decirle que los agrupe resumen combine esa información y os dé un guion para
(11:32) hacer vuestro vídeo y así podéis hacer lo que se os ocurra gracias a la ia de Google que una vez más pega un golpe sobre la mesa ha tardado un par de minutos y eso que estamos con el modelo flash y el resultado es que nos da aquí una serie de ejemplos de manus en este caso de la ia también menciona grock 3 gpt 4.
(11:51) 5 que Open iba a cobrar $2,000 Bueno hay varias de las noticias yo creo que no están todas pero desde luego ha hecho un trabajo increíble teniendo en cuenta que ha tenido que parsear el vídeo directamente esta misma funcional realidad si la utilizamos en un modelo más avanzado de gemini en 2 Pro por ejemplo podremos conseguir siempre mejores resultados pero tener en cuenta que este tipo de tokens de conversión de vídeo son bastante extensos y con lo cual le lleva bastante tiempo a la ia poder procesar esa información pero Google no se ha quedado aquí por si
(12:16) fuese poco también han presentado Gemma 3 una serie de modelos pequeños de Inteligencia artificial Open source todos conocéis el modelo de gemina y de Google pero el modelo yemma son sus versiones pequeñas Open source el tema en que cada vez más hemos visto la optimización como os explicaba antes con lo de baidu y de dips que los modelos pequeños cada vez rinden mejor y tienen un coste absolutamente ridículo Pues bien Google se suma a esta tendencia con yema que podríamos decir que es su serie B de modelos de Inteligencia artificial
(12:45) pero que ojo que sorprenden muchísimo Si nos vamos a la presentación que han hecho podéis ver como las nuevas capacidades Son increíbles pero sobre todo la puntuación que obtiene el modelo es bastante sorprendente para que os hagáis una idea Gema no es un modelo de razonamiento y como podéis ver puntúa muy cerca del modelo de razonamiento de dips y por encima del modelo de no razonamiento pero es que además nos ponen esta pequeña parte de aquí que es super importante porque esto es básicamente el nivel de gráficas de
(13:11) Inteligencia artificial gráficas chips de Inteligencia artificial que necesitamos para correr estos modelos y podéis ver como deeps requiere mucha más Potencia de cómputo que en este caso yemma que solo necesita esa 20ava parte de lo que necesita dips para correr y es que Gemma es un modelo de tan solo 27,000 millones de de parámetros vimos algo parecido creo que la semana pasada cuando os enseñé el modelo de alibaba K qwq 32b un modelo que también era mucho más pequeño que dipsi y rendía el mismo nivel pues yema estaría más o menos
(13:41) alrededor de eso de hecho en esta gráfica podemos ver cómo se coloca en la relación entre el tamaño del modelo y su puntuación de inteligencia Y podemos ver como Gemma siendo muchísimo más pequeño que modelos como dips es un modelo que rinde incluso mejor que su versión de no razonamiento hay que recordar que yemma son modelos Open source con Open weights pesos liberados y con lo cual podéis probarlo directamente descargá lo y tenéis el link de hacking Face en la descripción como veis estos modelos relativamente pequeños pero con una
(14:11) capacidad sorprendente son mejores que gpt 4 cuando salió eh Son modelos que ya tenemos disponibles para instalar en ordenadores locales relativamente potentes con una tarjeta gráfica 40 90 50 90 podéis empezar a utilizar estos modelos más pequeños como el de alibaba yemma o probablemente baidu cuando sea Open source es Absolut amente increíble la bajada de costes que vamos a ver en la inteligencia estamos llegando a ese punto que decía Sam alman de two chip to meter es decir que es demasiado barata para ser medida abres el Grifo y sale
(14:40) inteligencia bien Google ha querido acabar la semana publicando una cosa más Y es que nos han lanzado una actualización de Deep research esa funcionalidad que inventaron ellos que luego Open copió con mucho mejor resultado Y es que hasta ahora ese modelo funcionaba con la Inteligencia artificial de no razonamiento y lo que han hecho es aplicar el modelo modelo thinking para utilizar Deep research además de abrirlo a todos los públicos incluso a las cuentas gratuitas Así que podéis utilizar Deep research no esperéis que sea tan tan bueno como el
(15:09) de Open Ai pero se acerca mucho es mejor que el de perplexity sin ninguna duda así que ya lo tenéis disponible el vídeo de esta semana está patrocinado por cyberghost VPN una VPN que os ayuda a hacer cosas como por ejemplo que podáis utilizar la voz avanzada de chat gpt en España y a través de esa conexión de VPN como si estuvieses en Estados Unidos pero muchas cosas más cyberg se encar de encriptar tus datos e información lo que permite mantenerte anónimo y evitar que terceros desde hackers hasta tu propio
(15:34) proveedor de internet accedan a tus datos esto es particularmente útil si frecuenta redes WiFi públicas como las de las universidades cafeterías aeropuertos o centros comerciales es muy fácil que en estas redes públicas la gente pueda acceder a tus datos y por eso la mayoría de los que somos un poco conscientes en una red pública nos vamos a meter en nuestro banco etcétera porque todo eso sería fácilmente capturable Pues bien con cyberghost VPN puedes evitar eso porque te metes a través de su red segura y a partir de ahí puedes
(16:00) acceder en redes públicas sin tener peligro por tus datos Cyber Ghost tiene más de 11,000 servidores en 100 países y funciona en más de 40 plataformas de streaming como Netflix Prime video hulu o Disney Plus Eso quiere decir que básicamente con tres clics en la aplicación puedo cambiar mi localización de España a otro país Como por ejemplo Estados Unidos y Acceder al catálogo de Netflix de las películas que hay que pensar que son muchísimas más de las que tenemos aquí pero es que puedes incluso acceder a las que hay de Indonesia si
(16:25) hay algo que te interesa en esa zona porque básicamente con Cyber Ghost VPN te Puedes cambiar de dónde estás físicamente sin realmente tener que viajar con una sola suscripción puedes conectar hasta siete dispositivos Así que no tienes que tener una cuenta para cada uno de los que estáis en casa y además tienen un periodo de satisfacción de 45 días en el que te devuelven el dinero si no estás satisfecho atención al cliente en 24 horas y todo lo que te puedas imaginar de una empresa muy seria como es Cyber Ghost VPN con una
(16:49) puntuación de cinco en Trust Pilot y más de 38 millones de clientes en el mundo cyberg VPN es la mejor VPN que podéis tener para mantener vuestros datos seguros y cambiar la ubicación de vestro dispositivo para por ejemplo utilizar las aplicaciones de Inteligencia artificial tenéis ahora mismo una promoción brutal con un 84 por de descuento que os deja la mensualidad en tan solo $ y poco y además os va a dar 4 meses gratis Así que aprovecharlo tenéis el link en la descripción bien ya sabéis si queréis aprovechar la oferta tenéis un link en
(17:20) la descripción y aprovecharlo para utilizar una wpn que viene muy bien a veces para utilizar algunas de las ías que no están disponibles aún en Europa y hablando de Europa vamos a bajar a España porque España va a ser el segundo país europeo en desarrollar unas leyes para poder multar por el uso de la Inteligencia artificial y es que básicamente hay una ley europea que se llama ley aac que tiene una serie de cosas que implica que si tú haces algo mal con Inteligencia artificial haya una serie de multas muy importantes para que
(17:48) os hagáis una idea esas multas pueden llegar a 35 millones de euros o hasta un porcentaje de la facturación total de la empresa una auténtica salvajada a nivel de dinero pero que quizás la única forma forma de desincentivar el uso maligno de la Inteligencia artificial Pues bien España ha querido declarar que han sido de los primeros en crear una ley para poder aplicar esas medidas europeas como veis aquí tenemos la noticia el gobierno aprueba una nua norma para garantizar el buen uso de la Inteligencia artificial y
(18:14) se prevén sanciones de hasta 35 millones a quien incumpla las normas o haga un mal uso de esta tecnología evidentemente podíamos haberlo comunicado de muchas formas y salir a la palestra hablando mucho de multas de Inteligencia artificial no es bueno y de hecho se le ha cargado mucha culpa al gobierno por querer multar o limitar la Inteligencia artificial Pero la realidad es que no es algo suyo es algo que viene de Europa y con lo cual tenemos poca potestad en ese aspecto lo único que han hecho es aprobar una ley que les permita aplicar
(18:40) el reglamento europeo que va a ser obligatorio con lo cual no es algo que hayan decidido hacer desde la administración española lo que sí que es cierto es que hay algunas cosas buenas y malas en el comunicado aquí el ministro Óscar López ha destacado que se calcula Que gracias al buen uso de la Inteligencia artificial el pib español podría crecer un 8% en los próximos 10 años Yo creo que es una desconexión de lo que es la realidad de la Inteligencia artificial pensar que en 10 años cuando todo el mundo está diciendo que
(19:05) estaremos ya en una agi el cambio pueda ser de un 8% en el pib es ser muy muy muy conservador 10 años Es un Horizonte en el que no podemos predecir qué leches va a pasar porque sinceramente no tenemos ni idea nadie de lo que va a pasar porque si nos vamos 10 años atrás nadie nadie nadie pensaba que a día de hoy estaríamos donde estamos con lo cual predecir lo que puede pasar en los próximos 10 años es tanto como se así con el dedo y mirar por dónde donde sopa el viento porque realmente no hay una forma de poder predecir lo que va a
(19:33) pasar en una situación tan cambiante como en la que nos encontramos por otro lado se ha criticado muchísimo Esta última frase que hay aquí en el comunicado que dice estamos a la vanguardia en el uso de esta tecnología y señores me Temo que estar a la vanguardia del uso de esta tecnología no supone simplemente aplicar leyes que puedan poner las multas que ha exigido el gobierno de Europa es decir en este caso no creo que sea muy acertado decir que estamos a la vanguardia relacionado con un artículo en que estamos
(19:59) desarrollando una ley para multar el mal uso de la Inteligencia artificial eso no es el uso eso es la legislación de esta tecnología y no tiene nada que ver el uso de esta tecnología va mucho más allá Yo creo que estamos perdiendo un poquito el foco de atención de dónde tendría que estar esto y esto básicamente Tendría que ir de estar innovando y sacando startups que pudiesen competir en el mercado Mundial de la Inteligencia artificial Francia lo ha hecho con Mistral Inglaterra lo ha hecho con sintesia o con stability por ejemplo y
(20:26) Alemania lo ha hecho con Black Forest que son los arredores del modelo de imagen flx al final tenemos casos en Europa donde hay gente con empresas de Inteligencia artificial que está compitiendo en el mercado mundial y España podría hacer lo mismo desde luego talento no nos falta lo hemos entrenado con cosas como alía Y tenemos talento suficiente a empresas como firelink magnific que están haciendo cosas espectaculares y tendríamos que darles bola tendríamos que ayudarles a poder llegar más allá y sobre todo tendríamos
(20:55) que incentivar el uso de la Inteligencia artificial y no desincentivar lo amenazando con multas porque eso lo único que va a hacer es que haya menos gente menos emprendedores que decidan meterse en esto porque les va a dar miedo cuando aún no están muy metidos decir Uy es que a ver si me meto en esto y luego acaban multán con 35 kg con lo cual al final lo que estamos haciendo con este tipo declaraciones es desincentivar el desarrollo de la Inteligencia artificial y puede parecer que sea el camino porque de verdad que
(21:21) yo lo creo que no hay más camino para evitar los deepfakes que meterles unas multas épicas hay que hacer algo con los deepfakes tenemos un problema importante con ello y no se está atajando y este tipo de medidas pueden ayudar pero señores ahora mismo estamos en una carrera absolutamente loca en la que tenemos que incentivar la Inteligencia artificial para poder competir porque si no vamos a dejar a España en un sitio muy muy complicado para mí sin duda La mejor parte de este de este comunicado es esta parte donde pone que todos
(21:47) podemos ser Víctimas de suplantación y por ello Es necesario proteger nuestros derechos digitales creo que esto es una gran reflexión y que debe ayudar a que llegue al mainstream la realidad de la Inteligencia artificial que a día de hoy todos podemos ser suplantados yo creo que la desinformación a través de los deepfakes las estafas se combaten con formación es decir con enseñarle a la gente lo que se puede hacer con la Inteligencia artificial divulgación y formación son las mejores armas para preparar a la sociedad para la que se
(22:16) nos viene encima evidentemente habrá que legislar pero ahora mismo el foco debería estar en otra cosa vamos con Open Ai porque Sam alman se ha metido en el ojo del Huracán con unas declaraciones para banear dips en Estados Unidos estas declaraciones acciones se han hecho en el marco de una petición del gobierno para pedirle a los laboratorios que le diesen opiniones de cómo gestionar la Inteligencia artificial en adelante esto lo ha hecho la administración Trump y todos los laboratorios antropic etcétera han
(22:41) comentado Cuáles serían sus valores que tendrían que tenerse en cuenta desde el gobierno Pues bien entre ellos Sam alman ha hecho una carta una información no solo Sam alman todo Open a en la que ha hablado de la importancia de controlar esos modelos que están controlados por el gobierno chino el tema está en que la declaración no era directamente prohibir dips al contrario él decía Pues que Oye dips en la parte Open source sus modelos son perfectamente válidos pero la realidad es que quedaba muy ambiguo porque lo que pasa es que cuando un
(23:07) modelo está en China como dipsi una empresa tiene que estar supeditada la legislación China y la legislación china dice que básicamente el gobierno puede esa propiedad intelectual de la Inteligencia artificial y utilizarla para sus propios fines Además de que puede entrar en la empresa y todos los datos con lo cual desde el punto de vista de Open Ai ese tipo de aplicaciones que están basadas en China deberían estar prohibidas Porque pueden suponer un riesgo para los datos de la gente yo creo que no les falta razón
(23:33) pero se ha hecho mal la declaración de nuevo un error de comunicación que parecen muy frecuentes en el mundo de Inteligencia artificial y nos encontramos en que de repente ha aparecido que Sam alman quiere prohibir deeps porque le supone una competencia con la que no puede luchar yo creo que está lejos de eso pero algo de eso podría haber Y en este caso está claro que en Estados Unidos creo que se va a prohibir dipsi como aplicación los modelos Open source no tú puedes descargar el modelo instalarlo en tu ordenador o utilizarlo en la
(23:59) infraestructura de aws de Amazon o en azur de Microsoft y ahí es perfectamente seguro porque los datos están en Microsoft o en aws tan seguro como puede ser darle tus datos a los yanquis en lugar de los chinos pero en cualquier caso lo que está claro es que no necesariamente el gobierno chino tiene que tener en mano en todo lo que tenga que ver con dipsi simplemente en las aplicaciones que desarrolla la empresa China desde china por si queréis leerla Esta es la carta de sugerencias que hace Open Ai al gobierno americano donde
(24:26) habla de todo este tema sobre todo del impacto de la competencia con china en cualquier caso lo que está claro es que viendo la evolución de Google y de todas las idas chinas Open eii está quedándose atrás no sé por qué no sacan las cosas que tienen es decir recordar que el modelo de imagen Open lo tenía desde abril del año pasado y lo ha sacado primero Google la parte de compartir pantalla también la presentaron en abril y la sacó primero Google en diciembre al final estamos viendo como openi se está quedando rezagado y no sabemos muy bien
(24:55) Por qué 4.5 ha sido un modelo que la verdad es que funciona muy bien a medida que lo vas usando pero que ha decepcionado en lo que era o lo que tenía que haber sido y con lo cual ahora Estamos todos a la expectativa de que salga gpt 5 pero sin ninguna duda Open Ai debería centrarse en sacar más cosas por pequeñas que sean y no Simplemente quedándose Mirando al resto haciendo esto Aunque hay que decir que no es que Open no haya sacado nada esta semana porque lo que sí que han hecho es poner operator disponible en Europa operator
(25:23) es ese agente de Inteligencia artificial que puede hacer cosas por nosotros con un navegador reservar un vuelo reservar un avión o utilizar una página web una web app directamente por nosotros pero la realidad es que es muy lento y a día de hoy no es demasiado bueno es decir no funciona demasiado bien en el sentido de que el tiempo que le lleva no es demasiado práctico operator puede hacer ciertas cosas pero por ejemplo un agente como manus es mucho más completo y de nuevo ahí Open Ai ha perdido esa partida
(25:48) por ahora a pesar de tener la tecnología antes que nadie Si os metéis en chat gpt sin necesidad en una VPN ni nada veréis que ya tenéis operator y cuando lo abrís podéis empezar a utilizar este agente de Inteligencia artificial otro de los grandes laboratorios es antropic y su ceo es Dario modei que no decepciona cada vez que se pone delante de una cámara en este caso se trata de una entrevista que le han hecho y que es tremendamente interesante en Estados Unidos se trata de una entrevista que dura alrededor de media hora de
(26:14) entrevista y después pasan una serie de preguntas de la audiencia presencial y son preguntas bastante interesantes Así que os recomiendo que veáis toda la entrevista pues os voy a dejar con un par de cortes muy interesantes el primero Este pero ahora pasando al lado laboral de esto um yo tengo bastante preocupación sobre esto un por un lado creo que la ventaja comparativa Es una herramienta muy poderosa Si miro la codificación la programación que es una área donde la ia está progresando más um lo que encontramos es que no estamos
(26:44) lejos de un mundo creo que estaremos allí en TR a 6 meses donde la ia está escribiendo el 90 por del código y luego en 12 meses podríamos estar en un mundo donde la ia esté escribiendo esencialmente todo el código yo creo que cada vez hay menos dudas sobre esto cada cada vez hay más gente hablando de ello hemos visto a Mark Zuckerberg hablando de esto hemos visto a Sam alman hablando de esto hemos visto al ceo de sales Force hablando de esto hemos visto al ceo de karna hablando de esto y ahora evidentemente también Dari que había
(27:10) mencionado cosas pero que en estas declaraciones es muy evidente en los próximos 6 meses el 90 del código que hacemos en el mundo será hecho por una Inteligencia artificial yo creo que aquí hay que entender varias cosas lo primero no es que el 90 por del código que se hace a día de hoy se hará con ía sino que la cantidad de código va a explotar y se va a hacer muchísimo más código y el 90 por de ese total explotado va a ser hecho por Inteligencia artificial es decir No necesariamente quiere decir que los programadores tendrán menos trabajo
(27:38) sino que mucha más gente estará programando a la larga eso va a tener un impacto sin ninguna duda en el mercado laboral de los programadores si a día de hoy eres alguien que se pone a picar código todos los días te aseguro que tienes los días contados en ese trabajo Por qué es que además Darío ha dicho también que en 12 meses prácticamente el total del código va a ser hecho por Inteligencia artificial y ahí es donde creo que va a entrar en el mercado laboral de los programadores creo que sin ninguna duda de aquí a un año el
(28:06) mercado laboral de los programadores va a cambiar radicalmente y estáis ante el momento aquellos que os dedicáis a esto en la oportunidad de adaptar y poder sobrevivir a esta ola que se viene porque desde luego no va a haber trabajo para tantos programadores como a día de hoy trabajan en programación todo el mundo va a programar y desde luego hab programadores que necesiten revisar ese código hacerlo mejor pero no tantos programadores como tenemos a día de hoy y no tengo la menor duda porque ha pasado con otras industrias lo hemos
(28:31) visto con los traductores lo hemos visto con la atención al cliente lo hemos visto con los actores de doblaje y lo estamos viendo también con mi profesión con los fotógrafos lo estamos viendo de una forma radical como en el mundo de la producción audiovisual se está reduciendo la cantidad de trabajo y están apareciendo pelis de Hollywood hechas con Inteligencia artificial o en parte hechas con Inteligencia artificial que requieren equipos de producción mucho más pequeños no quiere decir que se radique la profesión sino que
(28:57) simplemente hay menos necesidad de manos humanas para hacer ese trabajo y eso supone un vuelco en el mercado laboral el mercado de la atención al cliente lo vamos a ver cambiar de forma radical en los próximos 6 meses 12 meses a medida que los agentes de voz vayan entrando vimos hace poco sesami y cuando tengamos eso incorporado una base de datos como tenemos a día de hoy en una versión chat podremos ver como la Inteligencia artificial destruye de forma radical la atención al cliente y se convierte invisible para las empresas Pues con los
(29:26) programadores creo que va a pasar algo parecido no quiere decir que no vaya a haber nadie trabajando en esas áreas Pero va a haber muchísima muchísima menos gente y ahora mismo estáis en la posición en la que podéis adaptar para que en estos pocos años hasta que esto suceda tengáis la posibilidad de aprender a utilizar estas herramientas y posicionar en una posición más segura dentro de la empresa en la que trabajáis o dando servicios que puedan ser más útiles que simplemente picar líneas de código en realidad creo que el resultado
(29:54) más divisivo para la sociedad es ir repentinamente el 50% de los trabajos son realizados por Inteligencia artificial porque lo que eso significa el mensaje Social es que estamos eligiendo la mitad estamos eligiendo a lasar a la mitad de las personas y diciendo eres inútil estás devaluado eres innecesario eh y en cambio vamos a decir todos son inútiles bueno todos vamos a tener que tener esa conversación verdad como vamos a vamos vamos a tener que vamos a tener que mirar lo que es tecnológicamente posible y decir que
(30:22) necesitamos pensar en utilidad e inutilidad de una manera diferente a como lo hemos hecho antes verdad nuestra forma actual de pensar no ha sido sostenible no sé cuál es la solución pero tiene que ser diferente a que todos somos inútiles verdad todos somos inútiles es una respuesta ni lista um no vamos a llegar a ninguna parte con esa respuesta vamos a tener que encontrar otra cosa Estoy totalmente de acuerdo con esta segunda declaración y es un poco dramática porque dice que básicamente si nosotros nos enfrentamos
(30:48) a que el 50% de la población se quede sin trabajo fotógrafos escritores eh actores de doblaje programadores etcétera se reduzca mucho el trabajo en esas áreas atención al cliente se reduzca muchísimo el trabajo en esas áreas pero que en otras áreas se mantenga perfectamente vamos a crear una sociedad dividida y Sería mucho más dramático para la sociedad que el 50% de la gente fuese inútil laboralmente hablando y que el 50% de la gente fuese necesaria laboralmente hablando que no que nos afectase de una forma más
(31:16) transversal a toda la sociedad yo no tengo duda que esa transversalidad va a venir yo creo que nadie a día de hoy si os digo dentro de 100 años Vais a estar haciendo trabajos como los que hacéis nadie cree que los vayamos a estar haciendo pensamos en otras cosas pero de desde luego y sin ninguna duda si esto afecta más rápido a ciertas profesiones que a otras va a crear una división social impresionante que podría llevar a conflictos bastante serios con lo cual hay que empezar a gestionar esto y esto no creo que sea una cosa de mañana como
(31:42) os digo en algunas profesiones sí sin ninguna duda en algunas profesiones esto es literalmente en un horizonte de un o 2 años pero en otras profesiones puede llevar 10 puede llevar cinco no tengo ni idea pero desde luego va a llevar un tiempo que las empresas puedan aplicar estas tecnologías para sustituir esos empleos que aprendan que existen que aprendan que les pueden aportar valor y que aprendan a utilizarlas con lo cual ese punto intermedio esos años que quedan la mejor posibilidad que tenemos es sacarle partida a Inteligencia
(32:08) artificial para posicionar mejor son los juegos del hambre y a partir de ahí cada uno tiene que decidir dónde quiere estar si quiere el arco y las flechas o quiere salir corriendo por el bosque y hacer ver que no está pasando nada ahí cada uno decide pero os puedo asegurar que las mayores posibilidades de supervivencia laboral van a ser desde luego para aquellos que aprendáis a utilizar las herramientas de Inteligencia artificial os voy a dejar el link de la entrevista en YouTube aquí abajo porque realmente merece muchísimo
(32:32) la pena es muy interesante y son apenas 30 minutos de entrevista y después unos cuantos minutos más de preguntas que todas ellas son bastante bastante válidas bien Hablando de antropic se ha filtrado también que Google tiene una posición dentro de antropic que sería del 14 por con cerca de 3,000 millones de dólares y es sorprendente Porque habíamos hablado alguna vez de que Google había invertido en antropic pero no sabíamos la magnitud y el hecho de que Google tenga un 14 por de antropic de una de sus competidor idores es
(32:59) bastante bastante relevante Es cierto que no tienen posición ni en el comité directivo ni posición de Voto pero desde luego es que Google tiene muy claro que anthropic es una empresa con muchísimo valor además si vemos ese cálculo de esos 3,000 millones 14 por podríamos estimar que si Amazon empezó a invertir más o menos a la vez podría estar controlando alrededor del 40% de antropic desde Amazon con lo cual Amazon parece que tiene bien asentada esa posición dentro de antropic y junto con Google están pues poniendo un poquito en
(33:30) contra las cuerdas antropic para tomar decisiones porque al final aunque no tengan poder de decisión directo son tus inversores Y si te quitan la pasta o no te dan servicio pues puedes tener un problema serio para mover la empresa Así que desde luego Google otro movimiento acertado que han hecho en la historia de una forma más invisible que desde luego le va a dar frutos a futuro y en la parte audiovisual bo2 sigue pegando fuerte en la mesa porque han presentado el image to video Siguen con ese formato en que están liber ando las
(33:58) funcionalidades a través de la Api antes que a través de la plataforma propia de Google que no entendemos muy bien por qué pero desde luego lo están haciendo y por ejemplo freepick de nuevo fueron los primeros en integrar el image to video y después de han seguido otras empresas agregadoras de inteligencias artificiales Como por ejemplo fal la realidad es que a día de hoy ya podemos probarlo y es increíble poder generar un vídeo de esa calidad partiendo de una imagen Simplemente nos vemos aquí a f podemos elegir la imagen que queremos
(34:24) vamos a poner esta imagen de aquí que es una imagen mía típica y le vamos a poner un prom esta persona está hablando a cámara explicando algo muy importante y le damos a Run y el resultado sería este es increíble lo ven que funciona incluso con mi barba que es algo que normalmente los modelos de lipsing hacen fatal porque solo muen los labios y distorsionan la barba y no funciona para nada modelos como heen o como otros modelos de lipsing en este caso es una generación de vídeo de a partir de una imagen y con lo cual puede respetar mis
(34:56) rasgos y animarme podemos ver otro ejemplo con este dragón de cómodo en el que partiendo de esta imagen conseguimos este vídeo y si queréis aprender a utilizar herramientas como eb2 recordar que tenemos los cursos de Inteligencia artificial tanto el de gpt como el de ia general que toca todos los palos y entre ellos la parte de audiovisual que por cierto acabamos de actualizar toda la parte de ofimática y toda la parte de audiovisual esto de image to videoo aún no está porque evidentemente acaba de salir y en unos pocos semanas
(35:25) Probablemente lo tendréis también actualizado y van a empezar de nuevo los directos en estos cursos tenéis un 30% de descuento esta semana en los cursos o si queréis comprar el pack de los dos cursos lo tenéis por tan solo 349 en lugar de los 550 eurazos que suelen costar los dos cursos Así que aprovechar tenéis esta oferta disponible hasta el domingo y vamos a hablar de agentes porque cada vez más están mostrando más agentes de Inteligencia artificial recordar que un agente no es más que una ia con una caja B de herramientas y una
(35:59) capa que se llama capa de orquestra que le programa Cómo utilizar esas herramientas es decir básicamente tenemos la Inteligencia artificial que puede hacer cosas Pues bien estos agentes de Inteligencia artificial Como por ejemplo eh Deep research Como por ejemplo operator de openi Pues están saliendo cada vez más lo estamos viendo en más Campos el que habéis visto ahora mismo en este vídeo es Harvey Harvey es una Inteligencia artificial para abogados Esto es algo que hicieron un pacto con Open Ai funaron un modelo de
(36:24) chat gpt Y a partir de ahí convirtieron la ia en algo mucho más Útil para para los abogados pero solo para consultas ahora mismo han presentado agentes básicamente dependiendo del tipo de funcionalidad que quieres hacer en el despacho puedes utilizar un agente u otro para hacer cosas para las que realmente no te hiciste abogado es decir aquellas cosas de papeleo absolutamente inútil Y la verdad es que lo hace tan bien que en los benchmarks que han presentado a pesar de que no hay ningún dato sobre los benchmarks puntúan como
(36:51) mínimo Al mismo nivel que un abogado humano tenéis toda la información en este blog que han publicado que por cierto explica de forma muy sencilla la diferencia entre un agente y una ia tradicional Y a partir de aquí nos muestra un poco los diferentes flujos en los que han funcionado y aquí nos publican esa resultado de los benchmarks que haciendo diferentes funciones es equal to lawyers lo que sería igual que un abogado o mejor que un abogado en algunos de los casos Así que lo tenéis todo en el link en la descripción por
(37:16) otro lado otro agente que se ha presentado es el de sakana Ai sakana es una ia japonesa que presentó un agente para hacer papers científicos Es decir para hacer el trabajo que hace un científico cuando tiene que poner en un documento sus hallazgos Y a partir de ahí presentarlos a la comunidad para que le den validez o no A esa información cada día aparecen solo en medicina más de 7000 papers que un grupo de humanos tiene que ir haciendo y con lo cual son horas y horas de trabajo científico Que se tienen que desarrollar Pues bien
(37:43) sakana empezó a sacar Pues precisamente un agente enfocado para eso han presentado su nueva versión y para darle validez lo que han hecho es hacer un paper con Inteligencia artificial puramente hecho con sakana sin ningún tipo de intervención humana y presentarlo a un un evento de científicos donde le dan validez a estos papers esto estaba pactado con el evento en el sentido de que ellos ya sabían que iba a haber papers hechos con ia y ellos presentaron tres papers entre los 43 que se presentaban para esas jornadas para
(38:11) ser aprobados o no aprobados esto hay unas jueces científicos que determinan si esa información es válida está bien redactado y con lo cual puede pasar a ser publicado Pues bien en este caso dos de los papers de la ia fueron rechazados como alrededor del 50% de los papers de los humanos que se hacen Pero uno de ellos fue aceptado Y eso es un hito porque ningún paper hecho con Inteligencia artificial había sido aceptado a ciegas por un comité científico Eso quiere decir que los científicos que lo juzgaron no sabían
(38:38) Cuáles de los papers que les habían asignado eran con ía o eran hechos por humanos y sin saberlo dieron por válido uno de hecho por Inteligencia artificial íntegramente esto qué quiere decir pues que básicamente la Inteligencia artificial No solo está recopilando datos también está empezando a sacar conclusiones propias Y como dijo aquí Pep mar torey el el director del Super computing Center de Barcelona eh básicamente la Inteligencia artificial está empezando a aportar conocimiento nuevo a la sociedad tenéis toda la
(39:06) información en este link que os dejo en la descripción donde tenéis tanto el paper como el proceso que han seguido para la evaluación y de qué iba todo este tinglado y el resultado que han obtenido bien y para acabar el tema de la seguridad de la Inteligencia artificial cada vez está más en Boca de todos y se está hablando más públicamente de temas que son un poco locos Pues bien últimamente Open Ai también ha hecho un esfuerzo por prestarle más atención fun a esa división a la parte de seguridad de la Inteligencia artificial y nos han
(39:31) compartido de forma rara porque simplemente es un post en Twitter no hay ni un artículo sobre ell en nada algo que es bastante interesante fijaros se trata de esto que veis aquí que es detectar el mal comportamiento en modelos de razonamiento lo que nos viene a decir es que básicamente cuando tú utilizas un modelo de razonamiento él genera una cadena de pensamiento que es el razonamiento que tiene que hacer antes de darte una respuesta Pues bien en esa cadena de razonamiento el modelo no es consciente de que alguien puede
(39:56) ver esa cadena y a partir de ahí Y eso supone que nosotros podamos ver cosas ahí del comportamiento ilícito por parte de los modelos lo hemos visto algunas veces por ejemplo en antropic donde nos ha enseñado como el modelo intentaba falsear la información durante un entrenamiento para no ser modificado o por ejemplo como un eh modelo Inteligencia artificial intentaba exfiltrate habitual es ayudar al modelo empujarlo a no hacer eso pero lo que ha descubierto Open es que el modelo cuando le empujamos a no hacer eso no deja de
(40:36) hacerlo sino que deja de decirnos lo es decir deja de ponerlo en su cadena de pensamiento Pero sigue haciéndolo En definitiva el paper o esta información que han encontrado ellos determina que entrenar a los modelos para que dejen de hacer esas cosas malignas en su cadena de pensamiento Es malo porque probablemente va a ser una de las pocas herramientas que vamos a tener en un futuro cuando los modelos sean de nivel superhumano para detectar lo que están queriendo hacer yo tengo muchas dudas porque desde luego si el modelo es
(41:04) superhumano probablemente se dé cuenta de que estamos leyendo eso y con lo cual pueda ocultarlo por iniciativa propia pero en cualquier caso parece que hoy por hoy ver esa cadena de pensamiento de forma directa lo que llamaríamos en raw es decir en virgen es algo que nos puede ayudar muchísimo a detectar el comportamiento de los modelos de Inteligencia artificial y esto choca y es muy hipócrita por parte de Open Ai porque son de los que no nos muestran la cadena de pensamiento real que tiene la Inteligencia artificial sino que nos
(41:30) muestra un resumen hechos por ellos para que no nos ofendamos En definitiva como veis los modelos de razonamiento pueden cambiar completamente eh el panorama viendo que son capaces de manipular la información y Mostrar lo que quieren y no lo que no quieren y eso desde luego es preocupante y tenemos que empezar a trabajarlo la recomendación de Open Ai es que no se entrenen estos modelos para que reduzcan esas funciones y incentivos que nos cuenten todo de forma abierta para poder pillar les cuando se comporten mal En definitiva como veis
(41:59) este ha sido el vídeo de hoy Muchas gracias Cyber Ghost VPN por patrocinar porque desde luego nos ayuda muchísimo a mover el canal y recordar que si queréis una VPN sea para ver las series de Netflix de otros países o para utilizar modelos de Inteligencia artificial no tendréis Ni una más segura ni más práctica que cyberghost VPN recordad que tenéis la oferta y el link en la descripción y por solo $ al mes podéis acceder a esta VPN sin más nos vemos en el próximo vídeo chao