Inteligência artificial gera vídeos falsos: como reconhecer e prevenir
1. O que são vídeos falsos gerados por IA?
2. Como a tecnologia de IA funciona para gerar vídeos falsos?
3. Como os vídeos falsos gerados por IA se espalham na Internet?
4. Os vídeos falsos gerados por IA podem prejudicar sua reputação?
5. Como identificar vídeo falso gerado por IA?
6. Quais medidas você pode tomar para proteger sua empresa contra vídeos falsos gerados por IA?
7. Como aprimorar a segurança de sua empresa contra vídeos falsos gerados por IA?
8. Como a tecnologia de AI pode ser usada para proteger contra vídeos falsos?
9. Como os mecanismos de busca podem ajudar a prevenir vídeos falsos gerados por IA?
10. Como criar conteúdo único e envolvente para sua empresa?
11. Como otimizar seu site para os mecanismos de busca?
12. Como usar redes sociais para gerar leads orgânicos para sua empresa?
13. Como criar uma lista de e-mails para sua empresa?
14. Como encontrar leads orgânicos relevantes para sua empresa?
15. Como acompanhar o progresso de seus leads orgânicos?

Conclusão:
Ao seguir estas dicas práticas, sua empresa pode se proteger contra vídeos falsos gerados por IA e gerar leads orgânicos valiosos para seu negócio. Sempre fique atento às últimas atualizações em tecnologia e mantenha-se à frente das ameaças para manter sua empresa segura. Use toda a tecnologia de AI disponível para ajudar a identificar informações falsas e proteger sua empresa. Aproveite suas ações de marketing e observações de leads em toda a Internet para criar conteúdo envolvente e relevante. Com um pouco de cuidado e atenção, sua empresa pode criar uma base de clientes sólida e duradoura graças à sua estratégia de marketing cuidadosamente desenvolvida e à atenção dedicada a seus leads orgânicos.

FAQs:
1. Quais são as vantagens de gerar leads orgânicos?
2. O que é uma boa estratégia de marketing para gerar leads orgânicos?
3. Como criar uma lista de e-mails para sua empresa?
4. Como encontrar leads orgânicos relevantes para sua empresa?
5. Como garantir que seus leads orgânicos se tornem clientes fiéis de sua empresa?

br>- SPONSOR –
¡REGISTRATE EN LA GTC DE NVIDIA y participa en el sorteo de una RTX 3090 TI!
Link de registro:
Link del sorteo:

Aprende todo sobre TECNOLOGÍA:
?‍? MASTERMIND ➞

Series de este canal:
?️ Montaje PCs ➞
? Divulgación Informática ➞
⚙️ Videos de Hardware ➞
? PC Modding ➞
⌨️ Guías Teclados Mecánicos ➞
?️ Guías Mouse de Gaming ➞
? Portátiles ➞
? Auriculares para jugar ➞
?️‍?️ Retro PC ➞
⚗️ Nate Labs ➞

Redes Sociales:
? Instagram ➞
? Twitter ➞
? Twitch ➞

Este vídeo foi indexado através do Youtube link da fonte
inteligencia artificial fotos ,

tecnologia,informatica,inteligencia artificial,ia,machine learning,gan,generative adversial network,deepfacelab,deepfake,como funciona deepfake,video falso,distinguir video falso,a6000,nvidia rtx,nvidia gtc,nvidia 3090 ti,cnn,convolucion,convolutional neural network,red neuronal,neural network ,

https://www.youtubepp.com/watch?v=aMlcd8SFF-U ,

Hace muy poco en el canal les conté que había creado este vídeo falso en el que cogí una entrevista que hizo marqués brownlee el on mask y le puse en mi cara por encima y si lo sé el resultado no es perfecto vale dedicando unas horas más

De trabajo podría haber mejorado aún más el resultado pero bueno qué queréis que os diga a mí me parece totalmente alucinante que una inteligencia artificial sea capaz de estudiar la cara de elon su expresión facial la posición de la boca los ojos e incluso la

Orientación de la cabeza y que en base a eso puede generar una foto de mi cara que jamás ha existido yo nunca he sido fotografiado poniendo esa cara y aún así la de inteligencia artificial entiende cómo funciona mi rostro y es capaz de generar una foto mía con ese nivel de

Detalle hoy vamos a hablar de una técnica muy moderna de inteligencia artificial que ha permitido generar fotos con muchísimo detalle y que además su funcionamiento es de lo más interesante las redes generativas antagónicas dos inteligencias que se entrenan la una a la otra luchando entre ellas como adversarios y que el

Resultado final es totalmente impresionante pero antes de continuar vamos a hablar de el sponsor de hoy y de un sorteo muy especial como probablemente sepas envidia es una de las empresas importantes en el mundo de la inteligencia artificial y por eso cada año organiza el htc una conferencia

Donde hablan de los últimos avances en todas las áreas relacionadas con inteligencia artificial desde desarrollo metaverso conducción inteligente bioinformática y muchísimas otras cosas ahora mismo falta un mes para la próxima gtc que será desde el 19 hasta el 22 de septiembre y consiste en una conferencia principal donde nvidia os habla de sus

Últimos avances pero también hay varias sesiones donde se hablará de temas como robótica súper computadores e incluso racing pero luego también están los talleres donde podrás aprender las bases del aprendizaje profundo detección de anomalías con inteligencia artificial o directamente fundamentos sobre cómo aprovechar la tarjeta gráfica para

Acelerar tus cálculos y para asistir a todo esto te tienes que registrar y eso nos lleva a la 30 90 está 30 90 que estáis viendo en pantalla bueno pues resulta que sortear esta gráfica entre todas las personas que se registren utilizando el link lo dejo abajo en la

Descripción que es un link especial para bueno para registrarse en el gtc que automáticamente te meten en el sorteo también os dejaré las bases del sorteo para que podáis echar un ojo así que ya sabéis queda un mesecito y tenéis abajo toda la información y ahora sí vamos con

El vídeo de hoy esto es lo que se conoce como deep fake y estoy seguro que este vídeo ha conseguido engañar a más de uno básicamente estoy seguro porque me lo he dicho en los comentarios del vídeo anterior de todos modos es bastante probable que no sea el primer día fake

Que ves en tu vida sobre todo en tick tock existen varias cuentas que usan esta técnica para hacer vídeos falsos de gente como putin haciendo todo tipo de cosas cómicas o una de las mejores en mi opinión el dif fake de tom cruise estas cuentas existen a pesar de que tick tock

Tiene una regla muy explícita que prohíbe material manipulado o sintético que pueda confundir a los usuarios distorsionando la veracidad de los eventos de una manera que pueda causar daño entiendo que el verdadero tom cruise ni ha denunciado esta cuenta ni nadie considera que este contenido haga daño

De ninguna manera y por eso la cuenta sigue existiendo pero si tick tock tiene esta regla es porque los deep face realmente están empezando a ser un problema tanto para tick tock como para facebook y muchas otras redes sociales ok quizás no estamos en el punto en el

Que sea 100% imposible darte cuenta de que un vídeo es falso o no pero no creo que nos falten y por eso la misma facebook abrió en 2020 un desafío para la comunidad con un millón de dólares en premios en el cual la gente tenía que crear un sistema que permita distinguir

De forma automatizada vídeos falsos de vídeos verdaderos dentro de este intento de distinguir un vídeo falso de uno verdadero existe un grupo de investigadores que crea deep face lab que es básicamente la aplicación que usa la cuenta falsa de putin y la cuenta falsa de tom cruise para hacer sus

Vídeos e incluso la que usado yo para hacer el vídeo que estáis viendo en pantalla y aquí probablemente me diréis porque si lo que querían era detectar vídeos falsos han creado un programa que genera vídeos falsos bueno pues esto lo vais a entender un poco más adelante en

El vídeo y el motivo la verdad es bastante impresionante así que quedamos hasta el final de face lab es un programa opensource que cualquiera puede descargarse y utilizar en su ordenador y no es precisamente una inteligencia artificial sino que son varias inteligencias artificiales que interactúan y trabajan juntas entre

Ellas para llegar hasta este resultado que estás viendo la forma más fácil de entenderlo es que os lo vaya explicando paso por paso así que bueno allá vamos ok la idea de deep face lab es que tenemos dos vídeos uno de origen y otro destino el origen a ver no tiene por qué

Ser vídeos puede ser fotos pueden ser distintos tipos de imágenes de esta persona pero bueno para simplificarlo vamos a hablar de dos vídeos uno de origen o de destino porque es lo que he hecho yo básicamente para este proyecto quería reemplazar la cara de alguien por

La mía o sea crear un vídeo falso de mí mismo y decidí que mi víctima sería el long mask pero además quería que el vídeo tuviese muy buena calidad o por lo menos la mejor posible y esta entrevista de marques brownlee es posiblemente el vídeo de mejor resolución que existe de

Él o más en internet por algún motivo no lo entiendo todos son de muy baja calidad o no se ven demasiado bien y con esto tenemos el vídeo de destino pero nos falta el origen al principio pensé en usar mis vídeos de youtube no al final y cientos de horas mías en

Internet hablando y bueno de hecho cualquier suscriptor mío podría descargarse horas de mis vídeos y usarlos para entrenar un día fake el problema es primero es que no se aconseja para nada hacer deep face de personas que tienen barba porque se suelen notar bastante y en la guía te

Recomiendan que si lo haces lo ideal es que todos los planos sean tomados el mismo día eso es para que la barba pues sea siempre igual en todas las fotos que utilizan de origen y no te vaya cambiando la barba en cada una de las fotos y la inteligencia artificial se

Vuelva loca y destruya la tierra crea ya el terminator no tiene sentido así que me grabé durante unos 20 minutos hablando mirando para todas partes en resolución de 6 k porque 6 k pues yo que sé por qué no no sea porque no cuando ya tenía grabado esto

Lo pusiera una carpeta y con un pequeño script que tiene face lab básicamente coge todo ese vídeo y lo rompe en muchos fotogramas vale en distintas imágenes en png de esa manera un vídeo de 22 minutos a 30 fotogramas por segundo una vez descomprimido se ha separado en

Fotos son 39 mil 600 fotos estas fotos van a ser las que va a estudiar el ordenador para aprender a generar mi cara desde cero veremos cómo funciona tranquilos vale pero antes tenemos que procesar estas fotos un poquito más bueno por un lado eso no que este programa funciona con fotos él no

Analiza el vídeo en sí como conjunto sino que analiza fotograma a fotograma la cara y luego cuando genera la cara genera cada uno de los fotogramas y los convierte de nuevo en un vídeo que van a reemplazar la cara en el vídeo de destino original vale y bueno resulta

Que para que la inteligencia artificial pueda tener la tarea más fácil a la hora de entrenar y aprender cómo es esta cara tenemos que centrar la cara en la foto básicamente tener como referencia 1 y una boca que están justo en el centro y en base a eso posicionar todas las fotos

En el mismo sitio y esto evidentemente pues lo podríamos hacer a mano con photoshop o algo así pero el trabajo sería muy complejo llevaría semanas así que los creadores de deep face lab pues añadieron una inteligencia artificial la primera de toda la cadena de procesado bueno en realidad son 22 de fans que

Crea un mapa de calor donde se identifican las facciones principales de la cara sobre todo aquellos puntos de referencia que representan la boca y los ojos que son sobre todo lo que más nos interesa de la cara y luego sobre todo para las caras que están rotadas y miran

Hacia los lados arriba abajo etcétera se utiliza otra inteligencia artificial otro algoritmo que llama pr net y éste lo que hace básicamente es identificar la posición 3d de tu cara y de esa manera pues puede rotar tu cabeza hacerla más grande centrarla poner los ojos donde van etcétera etcétera este

Proceso realmente es bastante rápido y se hace procesando directamente en la tarjeta gráfica que como veréis un poco más adelante que os enseñaré tengo aquí dos a seis mil gráficas de siete mil euros cada una y cada una tiene 48 gb de ram esto es bastante importante y clave

En este proceso pero lo veremos un poquito más adelante cuando vayamos a entrar el modelo ok pero cómo funciona todo esto como hace el ordenador para reconocer mi cara y saber hacia dónde estoy mirando bueno pues recordarás posiblemente de la primera parte de este vídeo que básicamente el machine learning o aprendizaje automático

Automatizado es la capacidad de los ordenadores de aprender a hacer cosas en base a ejemplos y casos esto es súper útil cuando necesitamos que una máquina haga algo que nosotros no sabemos muy bien cómo explicar por ejemplo reconocer una cara cómo le explicas a un ordenador

Que es una cara y que no es una cara bueno podríamos decirle si tiene ojos y una boca es una cara pero que son ojos y que es boca no hay 40 millones de tipo de ojos y de bocas colores formas tamaños posiciones sea realmente sería muy difícil definirlo de forma matemática

Bueno pues dentro del match in learning existen muchísimas técnicas y algoritmos y cada uno sirve para una cosa distinta hay algunos que funcionan mejor en unos casos y otros que funcionan mejor en otros por ejemplo en el vídeo anterior hablamos del caso en el que estábamos clasificando tweets según los

Sentimientos que transmitían esto es lo que se conoce como sentimiento análisis aquí teníamos este algoritmo que determinaba si eran tristes o alegre y en ese caso por ejemplo usaríamos un algoritmo de procesado del lenguaje natural o natural language processing en este caso tenemos imágenes y las imágenes son muy distintas del texto en

Concreto para un ordenador una imagen es una tabla de números y cada casilla de esta tabla básicamente sería un píxel de la imagen si la imagen está en color y utiliza el sistema de rege b entonces cada imagen tiene tres números distintos para cada pixel 1 para rojo 1 para verde

Y otro para azul yo la verdad si me lo pongo a pensar me parece casi imposible que usando estos números el ordenador sea capaz de identificar ahí una cara sobre todo teniendo en cuenta lo que es la diferencia de tamaños orientaciones etcétera pero existen técnicas y funcionan muy bien para esto normalmente

Se utilizan las que se conocen como redes neuronales convolución alex se llaman redes neuronales porque son un tipo especial de machine learning que está inspirado en el funcionamiento del cerebro humano y por eso usa una red de neuronas artificiales para aprender y aplicar estos conocimientos y convolución al es porque usan una

Técnica que se llama convolución que es un tipo de operadores matemáticas explicar esto en detalle que realmente lo podamos entender a fondo no se alargaría muchísimo el vídeo pero si os interesa esto puedo hacer un vídeo sobre como la inteligencia artificial es capaz de entender las imágenes si creéis que

Esto os puede interesar dejadme un comentario abajo y si bueno si mucha gente deja comentario pues yo hago un vídeo encantado porque es súper súper súper interesante en cualquier caso lo que hace este tipo de red neuronal muy a groso modo es que cuando la entrenamos busca características por decirlo de

Alguna manera busca patrones que sean típicos en las imágenes que estamos viendo y que puedan ayudar de alguna manera a identificarlas durante este proceso la resolución de la imagen va bajando y bajando y bajando y al final acabamos con unos datos bastante comprimidos y genéricos que tienen una

Cierta tolerancia o sea que realmente sea una foto una típica foto de una casa tenemos un ángulo de 90 grados a la base uno de los patrones que podría identificar son estos 90 grados que tienen la casa en la parte de abajo y este patrón no acabaría comprimiendo y

Éste junto con otros muchos patrones sería algo que utilizaría para identificar imágenes de casas y esto lo puede hacer a pesar de la resolución de la imagen ya sea pequeña o grande porque realmente este patrón se acaba comprimiendo en una resolución bastante pequeña y luego también la imagen se va

Analizando en distintas por lo cual se van detectando los patrones esto sea muy a groso modo muy por encima vale para que os hagáis una idea de cómo al final estas imágenes son reconocidas el conocer en base a patrones que se buscan a distintas escalas de la imagen y para

Eso básicamente sirven estas redes neuronales convolución ales para leer interpretar y trabajar con imágenes por ejemplo un uso bastante interesante que se podría usar para esto sería leer un captcha o leer números escritos a mano y reconocerlos ahora estas redes que está usando deep face lap para reconocer

Caras ya están entrenadas alguien se ha tomado la molestia de entrenar las usando miles de imágenes de personas y al final en esta parte del proceso lo que se hace es usar estas dos redes para recortar la carita y sacar un montón de fotos con la cara perfectamente centrada

E identificada pero antes de poder entrenar definitivamente el modelo tengo que definir dónde empieza y dónde acaba una cara en otras palabras lo que se llama la segmentación de la cara para esto han incluido dos algoritmos uno que lo hace de forma totalmente automatizada pero si creemos los mejores mejores

Resultados tenemos una opción que se llama x 6 x 6 básicamente sería otro algoritmo que lo que hace es usar una red neuronal convolución ‘la para detectar por dónde recortar tu cara tanto la tuya como la del destino porque al final lo que vamos a hacer es recorta

La carita ahora el problema que tiene esta inteligencia artificial es que no es perfecta por ejemplo puede pasar que yo estoy hablando por teléfono en un momento o que pase la mano delante de la cara o incluso que el color de fondo se parezca mucho el color de mi piel y por

Eso pues este algoritmo que recorta la cara no lo hace del todo bien pero x sé que nos permite algunas de estas muestras de distintas caras y nosotros mismos decirle cómo se recortan esto es algo bastante guay porque tú le dices eso y de a partir de ahí x se empieza a

Aprender no o sea se fijan lo que tú has cortado y empieza a aprender a entrenarse ya mejorar esos resultados y ya te empieza a recortar perfectamente bien de hecho tú puedes como entrenarlo aplicar el x6 mirar cómo ha quedado corregir los que no te gustan y volver a

Entrenarlo y al final lo que acabas teniendo pues es una inteligencia artificial que recorta tu cara pero que además usa datos tuyos por lo cual lo hace increíblemente bien yo por ejemplo he conseguido que me corten muy bien las gafas así que para que me deja un poco

Este esta parte de aquí vale pero las gafas por ejemplo esto de aquí me lo recorta súper bien la verdad tengo que decir y estas eran cosas que de serie no hacía nada bien vale pero al usar esta inteligencia artificial y entrenarlo un poquito más ha quedado bastante

Impresionante teniendo en cuenta de qué los creadores de esta inteligencia artificial ya te dicen que no uses gafas o sea si el sujeto tiene gafas te va a salir mal 100% y bueno nosotros hemos conseguido que más o menos del pego y hasta aquí hemos terminado la primera

Fase de las tres fases que implican hacer el df que no tiene como tres fases la primera es preparar los datos para el modelo la segunda es entrenar y la tercera es aplicar pero bueno hasta ahora hemos preparado datos y esto lo tenemos que repetir tanto para el vídeo

De origen que es como lo hemos hecho ahora como para el vídeo de destino o sea tenemos que hacer lo mismo con la cara de elon y vi esto bueno pues es bastante trabajo igual que iba un día entero o incluso un poco más depende del

Material que tengas y de los fallos que cometas y esto por cierto es algo bastante normal o sea cuando hacemos inteligencia artificial se dedica mucho tiempo a preparar los datos para el modelo sea no simplemente es una inteligencia artificial y decirle venga bonita corre sino que tienes que

Preparar esos datos para que puedas trabajar los de la forma correcta y ahora sí que estamos preparados para la verdadera tarea nuestra red generativa antagónica y me gustaría darte un poco de contexto las redes generativas antagónicas no son realmente una técnica de machine learning sino que son una estrategia para entrenar los modelos

Ahora mismo acabamos de hablar de las redes neuronales convolución alex y de cómo éstas buscan patrones dentro de las imágenes no estos patrones al final son el resultado de una fase de entrenamiento y se puede usar luego para reconocer imágenes que tengan esos patrones pero alguien pensó si esta red

Neuronal sabe cuáles son las características de un tipo de imagen también se podría usar para generar imágenes nuevas ya que se han estudiado una serie de imágenes y se han entendido sus características porque no inventamos una imagen nueva en base a estas características que conoce la red neuronal cómo generar las bueno pues

Cojamos una serie de valores random y bueno los pasamos a la red neuronal y le decimos hoy en estos valores tú aplica lo que sabes y créame una foto y bueno de esta forma estaríamos generando una imagen completamente nueva inspirada en esas características ahora qué pasa que

Esta imagen probablemente no va a ser nada creíble porque la red convolución al sí que es cierto que entiende cuáles son las principales características de ciertos tipos de fotos pero no tiene porqué entender la relación que hay entre las características osea no entiende la realidad no entiende las

Tres dimensiones y si quieres y de darse cuenta que es lo que nos hace a nosotros creer que una foto es falsa por eso al principio esta técnica bueno se usaba no se usaba para la típica aplicación que te cambia el estilo de una foto para hacer que parezca un cuadro pintado al

Óleo o que está hecho de trazos multicolores pero generar imágenes en sí es algo que no se le da muy bien porque hace algo bastante caótico que que no tiene muy buena pinta pero entonces en 2014 ian good fellow tuvo una idea una idea muy buena de hecho vamos a

Enfrentar dos inteligencias artificiales entre ellas en un juego que nos dará las imágenes generadas por ordenador más realistas jamás vistas este juego entre comillas se llamó gun o generativa adversión network en castellano redes antagónicas generativas la idea aquí es que tenemos dos redes la primera es una red convolución ‘la entrenada para

Entender un tipo de imagen concreto en el caso del df que sería mi cara y por lo tanto conoce las características de mi cara y con esa información va a intentar generar fotos mías lo va hacer bastante más vale lo va a hacer fatal porque ya os dije que no entiende que es

Una cara ellas tiene patrones y los intentan aplicar rando y esta red va a ser uno de los contrincantes y va a tener el rol de generador generador de imágenes y aquí es donde entra la segunda red neuronal ésta es la que llamaremos el discriminador y su trabajo

Es también estudiar caras pero con otro objetivo el discriminador tiene que decidir si una foto es falsa o no es falsa por lo que la primera red va a generar una cara y la segunda la va a analizar y va a decir si es real o no es

Real o sea si colaría por una foto de la vida real o si es una cosa falsa inventada por alguien como decía al principio la idea es que la cara no va a engañar a nadie vale o sea va a ser una cara bastante mal hecha y nuestro

Discriminador se lo va a decir le va a decir mira esta cara es que no engaña a nadie vale pero qué pasa que a partir de ahí el generador va a tener acceso a los pensamientos del discriminador y va a entender cuáles fueron los criterios por

Los cuales su cara fue descartada y va a usar esa información para hacer una cara aún mejor y lo va a volver a intentar y le van a volver a pillar y la segunda cara seguramente también será rechazada y este ciclo se repetirá cientos de veces miles de veces incluso millones de

Veces y en el proceso no sólo la red que genera las imágenes será cada vez mejor sino que también el discriminador se vuelve mejor y más capaz de distinguir fotos falsas de las verdades o sea básicamente estamos enfrentando dos redes neuronales que las dos son totalmente opuestas y que el trabajo de

Una es que la otra fracase el trabajo de la generadora es que la discriminadora se equivoque y pase por buena una foto mala y el trabajo de la discriminadora es darse cuenta de todas las fotos que no son reales que ha generado la generadora y aquí la idea sería entrenar

Y entrenar entrenar hasta que gane la generadora o sea que la generadora genere fotos que la discriminadora no está segura de si son reales o falsas una respuesta a algo así como fifty-fifty no estoy seguro de qué está pasando aquí porque no lo sé en ese momento habremos conseguido un resultado

Lo suficientemente convincente una foto bastante realista que podría engañar incluso a un humano y esta que estáis viendo aquí ha sido entrenada en tiempo récord en mi caso tarde 48 horas para conseguir este resultado que estáis viendo aunque en el caso de 16 la tenemos un sistema bastante peculiar el

Funcionamiento entrar no en realidad es es bastante complejo vale necesitaríamos aprender muchos conceptos antes de poder entenderlo a fondo a nivel matemático pero lo que está pasando aquí a grosso modo es que tenemos un codificador basado en convolución que sería justamente en la red convolución al que

Se dedica a entender mi cara es aquella que detecta a los rasgos no intenta entender que tiene una foto de mi cara que hace que sea mía y a la vez también hace lo mismo con la cara de él o no coge la cara de él o ni la estudia a ver

Qué es lo que hace que una foto sea de él o no o sea este codificador estudia tanto el destino como el origen o sea ambas fotos pasan por ahí y ahora atentos a partir de aquí utiliza los datos de mi cara para generar una foto mía que tenga la misma expresión que

Tiene el on en la cara original en la fase de entrenamiento las primeras versiones serían muy poco precisas de hecho son o son horribles un montón de ruido pero con el tiempo a base de entrenar y enfrentarse al discriminador va mejorando y mejorando y mejorando hasta conseguir resultados prácticamente

Perfectos aquí realmente hay muchos parámetros de configuración y muchos elementos vale o sea realmente el programa tiene muchas opciones incluso varios algoritmos que pueden utilizar para jugar y retocar etcétera porque depende también mucho del caso pero cuanta mejor resolución mejores resultados vamos a conseguir evidentemente no y en este caso yo estoy

Entrenando la inteligencia con imágenes con una resolución de 1024 x 1024 píxeles y con una configuración que el proceso nos ha llevado más de 48 gb de ram en la tarjeta gráfica hablemos un momento de eso como decía estamos delante de algoritmos de machine learning basados en redes neuronales

Estas redes neuronales se ejecutan directamente en la tarjeta gráfica usando tensor flow tensor flow básicamente es un conjunto de librerías creadas por el equipo de inteligencia artificial de google que en este caso se están usando desde python vale porque deep face lab está escrito en python y sirven para trabajar con distintos tipos

De redes neuronales en este caso tensor flow está usando cnn que es una librería de nvidia especialmente diseñada para que los núcleos cuda de la tarjeta gráfica puedan trabajar de forma óptima con estas redes neuronales de aprendizaje profundo por lo que en este caso la tarjeta gráfica está súper

Optimizada para este tipo de procesos vale todo pasa en la gráfica que usa exactamente de la gráfica bueno pues por un lado lo que hace es cargar todos los datos que hacen falta para entrenar el modelo dentro de la memoria de la tarjeta y todo esto lo carga desde el

Almacenamiento principal del ordenador o sea el disco duro o la unidad ssd aquí tal como tengo yo configurado este ordenador es montado un pc con 64 gb de ram y tres tarjetas gráficas dos de ellas son las a 6000 con 48 gb de ram mientras dos pues suman más de 90 las a

6000 a nivel de cálculo son prácticamente iguales a las 30 90 t y la gran diferencia que tienen es que tienen el doble de v ram y estas gráficas además las he conectado entre ellas con nv link que es un puente que les permite interconectar la memoria entre ellas por

Lo cual puedo aprovechar toda la ram y que trabajen en paralelo y luego también puse otra gráfica más vale para poder ver imágenes por pantalla que esto es algo que se recomienda muchísimo vale si tú vas a tener una o dos gráficas o tres o las que quieras haciendo cálculo lo

Mejor es que la imagen salga por otra gráfica extra que no sea ninguna de las que estás usando para hacer cálculos básicamente porque trae problemas de estabilidad al ordenador y bueno por suerte me encontrado que deep face lab está optimizado para trabajar con varias tarjetas así que puedo sacarle bastante

Partido a este set up y en fin este ha sido mi aventura con el deep face lab ha sido un proyecto muy interesante muy intenso y me ha permitido también profundizar mucho en este tema y bueno hacer un vídeo muy chulo sobre esto también para vosotros así que nada si os

Gusta el tema de inteligencia artificial y ciencia de datos yo estoy encantado de hacer más vídeo sobre este tema así que ya sabéis suscribiros al canal dejar monolito para arriba y nos vemos en el próximo vídeo [Música]

,00:00 hace muy poco en el canal les conté que
00:01 había creado este vídeo falso en el que
00:03 cogí una entrevista que hizo marqués
00:05 brownlee el on mask y le puse en mi cara
00:07 por encima y si lo sé el resultado no es
00:10 perfecto vale dedicando unas horas más
00:11 de trabajo podría haber mejorado aún más
00:13 el resultado pero bueno qué queréis que
00:15 os diga a mí me parece totalmente
00:17 alucinante que una inteligencia
00:18 artificial sea capaz de estudiar la cara
00:20 de elon su expresión facial la posición
00:23 de la boca los ojos e incluso la
00:24 orientación de la cabeza y que en base a
00:26 eso puede generar una foto de mi cara
00:28 que jamás ha existido yo nunca he sido
00:31 fotografiado poniendo esa cara y aún así
00:33 la de inteligencia artificial entiende
00:34 cómo funciona mi rostro y es capaz de
00:36 generar una foto mía con ese nivel de
00:39 detalle hoy vamos a hablar de una
00:41 técnica muy moderna de inteligencia
00:42 artificial que ha permitido generar
00:44 fotos con muchísimo detalle y que además
00:46 su funcionamiento es de lo más
00:47 interesante las redes generativas
00:50 antagónicas dos inteligencias que se
00:52 entrenan la una a la otra luchando entre
00:54 ellas como adversarios y que el
00:56 resultado final es totalmente
00:58 impresionante pero antes de continuar
01:00 vamos a hablar de el sponsor de hoy y de
01:02 un sorteo muy especial como
01:03 probablemente sepas envidia es una de
01:05 las empresas importantes en el mundo de
01:07 la inteligencia artificial y por eso
01:09 cada año organiza el htc una conferencia
01:12 donde hablan de los últimos avances en
01:14 todas las áreas relacionadas con
01:15 inteligencia artificial desde desarrollo
01:18 metaverso conducción inteligente
01:20 bioinformática y muchísimas otras cosas
01:22 ahora mismo falta un mes para la próxima
01:25 gtc que será desde el 19 hasta el 22 de
01:27 septiembre y consiste en una conferencia
01:30 principal donde nvidia os habla de sus
01:32 últimos avances pero también hay varias
01:34 sesiones donde se hablará de temas como
01:35 robótica súper computadores e incluso
01:38 racing pero luego también están los
01:40 talleres donde podrás aprender las bases
01:42 del aprendizaje profundo detección de
01:44 anomalías con inteligencia artificial o
01:46 directamente fundamentos sobre cómo
01:48 aprovechar la tarjeta gráfica para
01:50 acelerar tus cálculos y para asistir a
01:52 todo esto te tienes que registrar y eso
01:54 nos lleva a la 30 90 está 30 90 que
01:57 estáis viendo en pantalla bueno pues
01:58 resulta que sortear esta gráfica entre
02:01 todas las personas que se registren
02:03 utilizando el link lo dejo abajo en la
02:05 descripción que es un link especial para
02:07 bueno para registrarse en el gtc que
02:08 automáticamente te meten en el sorteo
02:10 también os dejaré las bases del sorteo
02:12 para que podáis echar un ojo así que ya
02:14 sabéis queda un mesecito y tenéis abajo
02:16 toda la información y ahora sí vamos con
02:18 el vídeo de hoy esto es lo que se conoce
02:20 como deep fake y estoy seguro que este
02:22 vídeo ha conseguido engañar a más de uno
02:24 básicamente estoy seguro porque me lo he
02:25 dicho en los comentarios del vídeo
02:27 anterior de todos modos es bastante
02:29 probable que no sea el primer día fake
02:31 que ves en tu vida sobre todo en tick
02:32 tock existen varias cuentas que usan
02:34 esta técnica para hacer vídeos falsos de
02:36 gente como putin haciendo todo tipo de
02:38 cosas cómicas o una de las mejores en mi
02:40 opinión el dif fake de tom cruise estas
02:43 cuentas existen a pesar de que tick tock
02:45 tiene una regla muy explícita que
02:46 prohíbe material manipulado o sintético
02:49 que pueda confundir a los usuarios
02:50 distorsionando la veracidad de los
02:52 eventos de una manera que pueda causar
02:53 daño
02:54 entiendo que el verdadero tom cruise ni
02:55 ha denunciado esta cuenta ni nadie
02:57 considera que este contenido haga daño
02:59 de ninguna manera y por eso la cuenta
03:00 sigue existiendo pero si tick tock tiene
03:03 esta regla es porque los deep face
03:05 realmente están empezando a ser un
03:06 problema tanto para tick tock como para
03:08 facebook y muchas otras redes sociales
03:11 ok quizás no estamos en el punto en el
03:12 que sea 100% imposible darte cuenta de
03:15 que un vídeo es falso o no pero no creo
03:17 que nos falten y por eso la misma
03:19 facebook abrió en 2020 un desafío para
03:22 la comunidad con un millón de dólares en
03:24 premios en el cual la gente tenía que
03:26 crear un sistema que permita distinguir
03:27 de forma automatizada vídeos falsos de
03:30 vídeos verdaderos dentro de este intento
03:32 de distinguir un vídeo falso de uno
03:33 verdadero existe un grupo de
03:35 investigadores que crea deep face lab
03:37 que es básicamente la aplicación que usa
03:40 la cuenta falsa de putin y la cuenta
03:41 falsa de tom cruise para hacer sus
03:43 vídeos e incluso la que usado yo para
03:45 hacer el vídeo que estáis viendo en
03:46 pantalla y aquí probablemente me diréis
03:48 porque si lo que querían era detectar
03:50 vídeos falsos han creado un programa que
03:52 genera vídeos falsos bueno pues esto lo
03:54 vais a entender un poco más adelante en
03:55 el vídeo y el motivo la verdad es
03:56 bastante impresionante así que quedamos
03:59 hasta el final de face lab es un
04:01 programa opensource que cualquiera puede
04:03 descargarse y utilizar en su ordenador y
04:05 no es precisamente una inteligencia
04:07 artificial sino que son varias
04:08 inteligencias artificiales que
04:10 interactúan y trabajan juntas entre
04:11 ellas para llegar hasta este resultado
04:13 que estás viendo la forma más fácil de
04:15 entenderlo es que os lo vaya explicando
04:17 paso por paso así que bueno allá vamos
04:19 ok la idea de deep face lab es que
04:21 tenemos dos vídeos uno de origen y otro
04:24 destino el origen a ver no tiene por qué
04:26 ser vídeos puede ser fotos pueden ser
04:28 distintos tipos de imágenes de esta
04:29 persona pero bueno para simplificarlo
04:31 vamos a hablar de dos vídeos uno de
04:32 origen o de destino porque es lo que he
04:34 hecho yo básicamente para este proyecto
04:35 quería reemplazar la cara de alguien por
04:37 la mía o sea crear un vídeo falso de mí
04:39 mismo y decidí que mi víctima sería el
04:41 long mask pero además quería que el
04:43 vídeo tuviese muy buena calidad o por lo
04:45 menos la mejor posible y esta entrevista
04:47 de marques brownlee es posiblemente el
04:48 vídeo de mejor resolución que existe de
04:51 él o más en internet por algún motivo no
04:53 lo entiendo todos son de muy baja
04:54 calidad o no se ven demasiado bien y con
04:57 esto tenemos el vídeo de destino pero
04:58 nos falta el origen al principio pensé
05:00 en usar mis vídeos de youtube no al
05:01 final y cientos de horas mías en
05:03 internet hablando y bueno de hecho
05:05 cualquier suscriptor mío podría
05:06 descargarse horas de mis vídeos y
05:08 usarlos para entrenar un día fake el
05:10 problema es primero es que no se
05:11 aconseja para nada hacer deep face de
05:14 personas que tienen barba porque se
05:16 suelen notar bastante y en la guía te
05:17 recomiendan que si lo haces lo ideal es
05:19 que todos los planos sean tomados el
05:21 mismo día eso es para que la barba pues
05:23 sea siempre igual en todas las fotos que
05:25 utilizan de origen y no te vaya
05:27 cambiando la barba en cada una de las
05:29 fotos y la inteligencia artificial se
05:30 vuelva loca y destruya la tierra crea ya
05:32 el terminator no
05:33 tiene sentido así que me grabé durante
05:36 unos 20 minutos hablando mirando para
05:38 todas partes en resolución de 6 k porque
05:41 6 k pues yo que sé por qué no no sea
05:43 porque no cuando ya tenía grabado esto
05:45 lo pusiera una carpeta y con un pequeño
05:47 script que tiene face lab básicamente
05:49 coge todo ese vídeo y lo rompe en muchos
05:52 fotogramas vale en distintas imágenes en
05:54 png de esa manera un vídeo de 22 minutos
05:56 a 30 fotogramas por segundo
05:58 una vez descomprimido se ha separado en
06:01 fotos son 39 mil 600 fotos estas fotos
06:04 van a ser las que va a estudiar el
06:05 ordenador para aprender a generar mi
06:07 cara desde cero veremos cómo funciona
06:09 tranquilos vale pero antes tenemos que
06:10 procesar estas fotos un poquito más
06:12 bueno por un lado eso no que este
06:14 programa funciona con fotos él no
06:16 analiza el vídeo en sí como conjunto
06:17 sino que analiza fotograma a fotograma
06:19 la cara y luego cuando genera la cara
06:21 genera cada uno de los fotogramas y los
06:23 convierte de nuevo en un vídeo que van a
06:24 reemplazar la cara en el vídeo de
06:26 destino original vale y bueno resulta
06:28 que para que la inteligencia artificial
06:29 pueda tener la tarea más fácil a la hora
06:31 de entrenar y aprender cómo es esta cara
06:33 tenemos que centrar la cara en la foto
06:35 básicamente tener como referencia 1 y
06:37 una boca que están justo en el centro y
06:39 en base a eso posicionar todas las fotos
06:41 en el mismo sitio y esto evidentemente
06:43 pues lo podríamos hacer a mano con
06:45 photoshop o algo así pero el trabajo
06:46 sería muy complejo llevaría semanas así
06:49 que los creadores de deep face lab pues
06:51 añadieron una inteligencia artificial la
06:53 primera de toda la cadena de procesado
06:54 bueno en realidad son 22 de fans que
06:57 crea un mapa de calor donde se
06:58 identifican las facciones principales de
07:01 la cara sobre todo aquellos puntos de
07:02 referencia que representan la boca y los
07:05 ojos que son sobre todo lo que más nos
07:07 interesa de la cara y luego sobre todo
07:08 para las caras que están rotadas y miran
07:10 hacia los lados arriba abajo etcétera se
07:13 utiliza otra inteligencia artificial
07:14 otro algoritmo que llama pr net y éste
07:17 lo que hace básicamente es identificar
07:18 la posición 3d de tu cara y de esa
07:21 manera pues puede rotar tu cabeza
07:23 hacerla más grande centrarla poner los
07:24 ojos donde van etcétera etcétera este
07:26 proceso realmente es bastante rápido y
07:28 se hace procesando directamente en la
07:30 tarjeta gráfica que como veréis un poco
07:32 más adelante que os enseñaré tengo aquí
07:33 dos a seis mil gráficas de siete mil
07:36 euros cada una y cada una tiene 48 gb de
07:38 ram esto es bastante importante y clave
07:40 en este proceso pero lo veremos un
07:42 poquito más adelante cuando vayamos a
07:43 entrar el modelo ok pero cómo funciona
07:45 todo esto como hace el ordenador para
07:47 reconocer mi cara y saber hacia dónde
07:48 estoy mirando bueno pues recordarás
07:50 posiblemente de la primera parte de este
07:52 vídeo que básicamente el machine
07:54 learning o aprendizaje automático
07:55 automatizado es la capacidad de los
07:58 ordenadores de aprender a hacer cosas en
08:00 base a ejemplos y casos esto es súper
08:03 útil cuando necesitamos que una máquina
08:04 haga algo que nosotros no sabemos muy
08:07 bien cómo explicar por ejemplo reconocer
08:09 una cara cómo le explicas a un ordenador
08:11 que es una cara y que no es una cara
08:14 bueno podríamos decirle si tiene ojos y
08:16 una boca es una cara pero que son ojos y
08:19 que es boca no hay 40 millones de tipo
08:20 de ojos y de bocas colores formas
08:23 tamaños posiciones sea realmente sería
08:25 muy difícil definirlo de forma
08:27 matemática
08:28 bueno pues dentro del match in learning
08:30 existen muchísimas técnicas y algoritmos
08:32 y cada uno sirve para una cosa distinta
08:33 hay algunos que funcionan mejor en unos
08:35 casos y otros que funcionan mejor en
08:37 otros por ejemplo en el vídeo anterior
08:38 hablamos del caso en el que estábamos
08:40 clasificando tweets según los
08:41 sentimientos que transmitían esto es lo
08:43 que se conoce como sentimiento análisis
08:45 aquí teníamos este algoritmo que
08:47 determinaba si eran tristes o alegre y
08:49 en ese caso por ejemplo usaríamos un
08:50 algoritmo de procesado del lenguaje
08:52 natural o natural language processing en
08:55 este caso tenemos imágenes y las
08:56 imágenes son muy distintas del texto en
08:58 concreto para un ordenador una imagen es
09:00 una tabla de números y cada casilla de
09:03 esta tabla básicamente sería un píxel de
09:05 la imagen si la imagen está en color y
09:07 utiliza el sistema de rege b entonces
09:09 cada imagen tiene tres números distintos
09:12 para cada pixel 1 para rojo 1 para verde
09:15 y otro para azul yo la verdad si me lo
09:16 pongo a pensar me parece casi imposible
09:19 que usando estos números el ordenador
09:21 sea capaz de identificar ahí una cara
09:23 sobre todo teniendo en cuenta lo que es
09:24 la diferencia de tamaños orientaciones
09:27 etcétera pero existen técnicas y
09:28 funcionan muy bien para esto normalmente
09:31 se utilizan las que se conocen como
09:32 redes neuronales convolución alex se
09:35 llaman redes neuronales porque son un
09:36 tipo especial de machine learning que
09:38 está inspirado en el funcionamiento del
09:40 cerebro humano y por eso usa una red de
09:42 neuronas artificiales para aprender y
09:44 aplicar estos conocimientos y
09:46 convolución al es porque usan una
09:47 técnica que se llama convolución que es
09:49 un tipo de operadores matemáticas
09:51 explicar esto en detalle que realmente
09:53 lo podamos entender a fondo no se
09:54 alargaría muchísimo el vídeo pero si os
09:56 interesa esto puedo hacer un vídeo sobre
09:58 como la inteligencia artificial es capaz
10:00 de entender las imágenes si creéis que
10:02 esto os puede interesar dejadme un
10:04 comentario abajo y si bueno si mucha
10:06 gente deja comentario pues yo hago un
10:07 vídeo encantado porque es súper súper
10:09 súper interesante en cualquier caso lo
10:11 que hace este tipo de red neuronal muy a
10:12 groso modo es que cuando la entrenamos
10:14 busca características por decirlo de
10:17 alguna manera busca patrones que sean
10:19 típicos en las imágenes que estamos
10:21 viendo y que puedan ayudar de alguna
10:22 manera a identificarlas durante este
10:24 proceso la resolución de la imagen va
10:26 bajando y bajando y bajando y al final
10:28 acabamos con unos datos bastante
10:29 comprimidos y genéricos que tienen una
10:31 cierta tolerancia o sea que realmente
10:33 sea una foto una típica foto de una casa
10:36 tenemos un ángulo de 90 grados a la base
10:38 uno de los patrones que podría
10:40 identificar son estos 90 grados que
10:41 tienen la casa en la parte de abajo y
10:43 este patrón no acabaría comprimiendo y
10:45 éste junto con otros muchos patrones
10:47 sería algo que utilizaría para
10:49 identificar imágenes de casas y esto lo
10:51 puede hacer a pesar de la resolución de
10:52 la imagen ya sea pequeña o grande porque
10:54 realmente este patrón se acaba
10:56 comprimiendo en una resolución bastante
10:57 pequeña y luego también la imagen se va
10:59 analizando en distintas por lo cual se
11:02 van detectando los patrones esto sea muy
11:03 a groso modo muy por encima vale para
11:05 que os hagáis una idea de cómo al final
11:07 estas imágenes son reconocidas el
11:09 conocer en base a patrones que se buscan
11:10 a distintas escalas de la imagen y para
11:12 eso básicamente sirven estas redes
11:13 neuronales convolución ales para leer
11:15 interpretar y trabajar con imágenes por
11:17 ejemplo un uso bastante interesante que
11:19 se podría usar para esto sería leer un
11:21 captcha o leer números escritos a mano y
11:23 reconocerlos ahora estas redes que está
11:25 usando deep face lap para reconocer
11:27 caras ya están entrenadas alguien se ha
11:29 tomado la molestia de entrenar las
11:30 usando miles de imágenes de personas y
11:32 al final en esta parte del proceso lo
11:34 que se hace es usar estas dos redes para
11:36 recortar la carita y sacar un montón de
11:37 fotos con la cara perfectamente centrada
11:39 e identificada pero antes de poder
11:41 entrenar definitivamente el modelo tengo
11:43 que definir dónde empieza y dónde acaba
11:45 una cara en otras palabras lo que se
11:47 llama la segmentación de la cara para
11:49 esto han incluido dos algoritmos uno que
11:50 lo hace de forma totalmente automatizada
11:52 pero si creemos los mejores mejores
11:54 resultados tenemos una opción que se
11:56 llama x 6 x 6 básicamente sería otro
11:59 algoritmo que lo que hace es usar una
12:01 red neuronal convolución ‘la para
12:03 detectar por dónde recortar tu cara
12:05 tanto la tuya como la del destino porque
12:07 al final lo que vamos a hacer es recorta
12:08 la carita ahora el problema que tiene
12:10 esta inteligencia artificial es que no
12:11 es perfecta por ejemplo puede pasar que
12:13 yo estoy hablando por teléfono en un
12:14 momento o que pase la mano delante de la
12:16 cara o incluso que el color de fondo se
12:17 parezca mucho el color de mi piel y por
12:19 eso pues este algoritmo que recorta la
12:21 cara no lo hace del todo bien pero x sé
12:23 que nos permite algunas de estas
12:25 muestras de distintas caras y nosotros
12:27 mismos decirle cómo se recortan esto es
12:29 algo bastante guay porque tú le dices
12:31 eso y de a partir de ahí x se empieza a
12:33 aprender no o sea se fijan lo que tú has
12:35 cortado y empieza a aprender a
12:38 entrenarse ya mejorar esos resultados y
12:40 ya te empieza a recortar perfectamente
12:42 bien de hecho tú puedes como entrenarlo
12:44 aplicar el x6 mirar cómo ha quedado
12:46 corregir los que no te gustan y volver a
12:48 entrenarlo y al final lo que acabas
12:49 teniendo pues es una inteligencia
12:50 artificial que recorta tu cara pero que
12:52 además usa datos tuyos por lo cual lo
12:54 hace increíblemente bien yo por ejemplo
12:56 he conseguido que me corten muy bien las
12:57 gafas así que para que me deja un poco
12:59 este esta parte de aquí vale pero las
13:01 gafas por ejemplo esto de aquí me lo
13:03 recorta súper bien la verdad tengo que
13:05 decir y estas eran cosas que de serie no
13:07 hacía nada bien vale pero al usar esta
13:08 inteligencia artificial y entrenarlo un
13:10 poquito más ha quedado bastante
13:11 impresionante teniendo en cuenta de qué
13:14 los creadores de esta inteligencia
13:15 artificial ya te dicen que no uses gafas
13:17 o sea si el sujeto tiene gafas te va a
13:19 salir mal 100% y bueno nosotros hemos
13:21 conseguido que más o menos del pego y
13:23 hasta aquí hemos terminado la primera
13:25 fase de las tres fases que implican
13:27 hacer el df que no tiene como tres fases
13:30 la primera es preparar los datos para el
13:31 modelo la segunda es entrenar y la
13:33 tercera es aplicar pero bueno hasta
13:35 ahora hemos preparado datos y esto lo
13:36 tenemos que repetir tanto para el vídeo
13:38 de origen que es como lo hemos hecho
13:39 ahora como para el vídeo de destino o
13:41 sea tenemos que hacer lo mismo con la
13:42 cara de elon y vi esto bueno pues es
13:44 bastante trabajo igual que iba un día
13:45 entero o incluso un poco más depende del
13:48 material que tengas y de los fallos que
13:49 cometas y esto por cierto es algo
13:51 bastante normal o sea cuando hacemos
13:53 inteligencia artificial se dedica mucho
13:55 tiempo a preparar los datos para el
13:57 modelo sea no simplemente es una
13:59 inteligencia artificial y decirle venga
14:00 bonita corre sino que tienes que
14:02 preparar esos datos para que puedas
14:04 trabajar los de la forma correcta y
14:05 ahora sí que estamos preparados para la
14:07 verdadera tarea nuestra red generativa
14:09 antagónica y me gustaría darte un poco
14:12 de contexto las redes generativas
14:14 antagónicas no son realmente una técnica
14:16 de machine learning sino que son una
14:18 estrategia para entrenar los modelos
14:20 ahora mismo acabamos de hablar de las
14:21 redes neuronales convolución alex y de
14:23 cómo éstas buscan patrones dentro de las
14:25 imágenes no estos patrones al final son
14:27 el resultado de una fase de
14:29 entrenamiento y se puede usar luego para
14:31 reconocer imágenes que tengan esos
14:32 patrones pero alguien pensó si esta red
14:35 neuronal sabe cuáles son las
14:36 características de un tipo de imagen
14:38 también se podría usar para generar
14:40 imágenes nuevas ya que se han estudiado
14:42 una serie de imágenes y se han entendido
14:43 sus características porque no inventamos
14:45 una imagen nueva en base a estas
14:47 características que conoce la red
14:48 neuronal cómo generar las bueno pues
14:50 cojamos una serie de valores random y
14:53 bueno los pasamos a la red neuronal y le
14:55 decimos hoy en estos valores tú aplica
14:57 lo que sabes y créame una foto y bueno
14:59 de esta forma estaríamos generando una
15:00 imagen completamente nueva inspirada en
15:03 esas características ahora qué pasa que
15:05 esta imagen probablemente no va a ser
15:07 nada creíble porque la red convolución
15:09 al sí que es cierto que entiende cuáles
15:11 son las principales características de
15:12 ciertos tipos de fotos pero no tiene
15:14 porqué entender la relación que hay
15:15 entre las características osea no
15:16 entiende la realidad no entiende las
15:18 tres dimensiones y si quieres y de darse
15:20 cuenta que es lo que nos hace a nosotros
15:21 creer que una foto es falsa por eso al
15:24 principio esta técnica bueno se usaba no
15:26 se usaba para la típica aplicación que
15:27 te cambia el estilo de una foto para
15:29 hacer que parezca un cuadro pintado al
15:31 óleo o que está hecho de trazos
15:32 multicolores pero generar imágenes en sí
15:34 es algo que no se le da muy bien porque
15:36 hace algo bastante caótico que que no
15:38 tiene muy buena pinta pero entonces en
15:40 2014 ian good fellow tuvo una idea una
15:43 idea muy buena de hecho vamos a
15:45 enfrentar dos inteligencias artificiales
15:46 entre ellas en un juego que nos dará las
15:49 imágenes generadas por ordenador más
15:51 realistas jamás vistas este juego entre
15:54 comillas se llamó gun o generativa
15:56 adversión network en castellano redes
15:59 antagónicas generativas la idea aquí es
16:01 que tenemos dos redes la primera es una
16:03 red convolución ‘la entrenada para
16:05 entender un tipo de imagen concreto en
16:07 el caso del df que sería mi cara y por
16:10 lo tanto conoce las características de
16:11 mi cara y con esa información va a
16:13 intentar generar fotos mías lo va hacer
16:15 bastante más vale lo va a hacer fatal
16:16 porque ya os dije que no entiende que es
16:19 una cara ellas tiene patrones y los
16:21 intentan aplicar rando y esta red va a
16:23 ser uno de los contrincantes y va a
16:24 tener el rol de generador generador de
16:27 imágenes y aquí es donde entra la
16:28 segunda red neuronal ésta es la que
16:30 llamaremos el discriminador y su trabajo
16:32 es también estudiar caras pero con otro
16:35 objetivo el discriminador tiene que
16:37 decidir si una foto es falsa o no es
16:39 falsa por lo que la primera red va a
16:41 generar una cara y la segunda la va a
16:43 analizar y va a decir si es real o no es
16:45 real o sea si colaría por una foto de la
16:48 vida real o si es una cosa falsa
16:50 inventada por alguien como decía al
16:52 principio la idea es que la cara no va a
16:54 engañar a nadie vale o sea va a ser una
16:56 cara bastante mal hecha y nuestro
16:57 discriminador se lo va a decir le va a
16:59 decir mira esta cara es que no engaña a
17:01 nadie vale pero qué pasa que a partir de
17:03 ahí el generador va a tener acceso a los
17:05 pensamientos del discriminador y va a
17:06 entender cuáles fueron los criterios por
17:09 los cuales su cara fue descartada y va a
17:11 usar esa información para hacer una cara
17:12 aún mejor y lo va a volver a intentar y
17:14 le van a volver a pillar y la segunda
17:16 cara seguramente también será rechazada
17:18 y este ciclo se repetirá cientos de
17:20 veces miles de veces incluso millones de
17:22 veces y en el proceso no sólo la red que
17:24 genera las imágenes será cada vez mejor
17:26 sino que también el discriminador se
17:28 vuelve mejor y más capaz de distinguir
17:30 fotos falsas de las verdades o sea
17:33 básicamente estamos enfrentando dos
17:35 redes neuronales que las dos son
17:37 totalmente opuestas y que el trabajo de
17:38 una es que la otra fracase el trabajo de
17:40 la generadora es que la discriminadora
17:42 se equivoque y pase por buena una foto
17:44 mala y el trabajo de la discriminadora
17:46 es darse cuenta de todas las fotos que
17:48 no son reales que ha generado la
17:50 generadora y aquí la idea sería entrenar
17:52 y entrenar entrenar hasta que gane la
17:53 generadora o sea que la generadora
17:55 genere fotos que la discriminadora no
17:57 está segura de si son reales o falsas
18:00 una respuesta a algo así como
18:01 fifty-fifty no estoy seguro de qué está
18:03 pasando aquí porque no lo sé en ese
18:05 momento habremos conseguido un resultado
18:07 lo suficientemente convincente una foto
18:09 bastante realista que podría engañar
18:11 incluso a un humano y esta que estáis
18:13 viendo aquí ha sido entrenada en tiempo
18:14 récord en mi caso tarde 48 horas para
18:17 conseguir este resultado que estáis
18:18 viendo aunque en el caso de 16 la
18:20 tenemos un sistema bastante peculiar el
18:22 funcionamiento entrar no en realidad es
18:23 es bastante complejo vale necesitaríamos
18:25 aprender muchos conceptos antes de poder
18:27 entenderlo a fondo a nivel matemático
18:29 pero lo que está pasando aquí a grosso
18:31 modo es que tenemos un codificador
18:32 basado en convolución que sería
18:35 justamente en la red convolución al que
18:37 se dedica a entender mi cara es aquella
18:39 que detecta a los rasgos no intenta
18:41 entender que tiene una foto de mi cara
18:43 que hace que sea mía y a la vez también
18:45 hace lo mismo con la cara de él o no
18:46 coge la cara de él o ni la estudia a ver
18:48 qué es lo que hace que una foto sea de
18:49 él o no o sea este codificador estudia
18:51 tanto el destino como el origen o sea
18:53 ambas fotos pasan por ahí y ahora
18:55 atentos a partir de aquí utiliza los
18:57 datos de mi cara para generar una foto
18:59 mía que tenga la misma expresión que
19:02 tiene el on en la cara original en la
19:03 fase de entrenamiento las primeras
19:05 versiones serían muy poco precisas de
19:06 hecho son o son horribles un montón de
19:08 ruido pero con el tiempo a base de
19:10 entrenar y enfrentarse al discriminador
19:12 va mejorando y mejorando y mejorando
19:14 hasta conseguir resultados prácticamente
19:16 perfectos aquí realmente hay muchos
19:18 parámetros de configuración y muchos
19:19 elementos vale o sea realmente el
19:21 programa tiene muchas opciones incluso
19:22 varios algoritmos que pueden utilizar
19:24 para jugar y retocar etcétera porque
19:26 depende también mucho del caso pero
19:28 cuanta mejor resolución mejores
19:30 resultados vamos a conseguir
19:31 evidentemente no y en este caso yo estoy
19:33 entrenando la inteligencia con imágenes
19:34 con una resolución de 1024 x 1024
19:37 píxeles y con una configuración que el
19:39 proceso nos ha llevado más de 48 gb de
19:41 ram en la tarjeta gráfica
19:43 hablemos un momento de eso como decía
19:45 estamos delante de algoritmos de machine
19:47 learning basados en redes neuronales
19:49 estas redes neuronales se ejecutan
19:51 directamente en la tarjeta gráfica
19:52 usando tensor flow tensor flow
19:54 básicamente es un conjunto de librerías
19:56 creadas por el equipo de inteligencia
19:58 artificial de google que en este caso se
19:59 están usando desde python vale porque
20:01 deep face lab está escrito en python y
20:03 sirven para trabajar con distintos tipos
20:05 de redes neuronales en este caso tensor
20:07 flow está usando cnn que es una librería
20:09 de nvidia especialmente diseñada para
20:12 que los núcleos cuda de la tarjeta
20:13 gráfica puedan trabajar de forma óptima
20:16 con estas redes neuronales de
20:17 aprendizaje profundo por lo que en este
20:19 caso la tarjeta gráfica está súper
20:20 optimizada para este tipo de procesos
20:22 vale todo pasa en la gráfica que usa
20:24 exactamente de la gráfica bueno pues por
20:25 un lado lo que hace es cargar todos los
20:27 datos que hacen falta para entrenar el
20:29 modelo dentro de la memoria de la
20:31 tarjeta y todo esto lo carga desde el
20:33 almacenamiento principal del ordenador o
20:34 sea el disco duro o la unidad ssd aquí
20:37 tal como tengo yo configurado este
20:38 ordenador es montado un pc con 64 gb de
20:40 ram y tres tarjetas gráficas dos de
20:43 ellas son las a 6000 con 48 gb de ram
20:45 mientras dos pues suman más de 90 las a
20:48 6000 a nivel de cálculo son
20:49 prácticamente iguales a las 30 90 t y la
20:51 gran diferencia que tienen es que tienen
20:53 el doble de v ram y estas gráficas
20:55 además las he conectado entre ellas con
20:56 nv link que es un puente que les permite
20:59 interconectar la memoria entre ellas por
21:00 lo cual puedo aprovechar toda la ram y
21:02 que trabajen en paralelo y luego también
21:04 puse otra gráfica más vale para poder
21:06 ver imágenes por pantalla que esto es
21:08 algo que se recomienda muchísimo vale si
21:09 tú vas a tener una o dos gráficas o tres
21:11 o las que quieras haciendo cálculo lo
21:13 mejor es que la imagen salga por otra
21:15 gráfica extra que no sea ninguna de las
21:17 que estás usando para hacer cálculos
21:18 básicamente porque trae problemas de
21:20 estabilidad al ordenador y bueno por
21:22 suerte me encontrado que deep face lab
21:24 está optimizado para trabajar con varias
21:25 tarjetas así que puedo sacarle bastante
21:27 partido a este set up y en fin este ha
21:29 sido mi aventura con el deep face lab ha
21:31 sido un proyecto muy interesante muy
21:33 intenso y me ha permitido también
21:34 profundizar mucho en este tema y bueno
21:36 hacer un vídeo muy chulo sobre esto
21:37 también para vosotros así que nada si os
21:39 gusta el tema de inteligencia artificial
21:40 y ciencia de datos yo estoy encantado de
21:43 hacer más vídeo sobre este tema así que
21:44 ya sabéis suscribiros al canal dejar
21:46 monolito para arriba y nos vemos en el
21:48 próximo vídeo
21:55 [Música]
, , , #Esta #genera #videos #FALSOS , [agora]

Leave a Reply

Nullam eget felis

Do you want a more direct contact with our team?

Sed blandit libero volutpat sed cras ornare arcu dui. At erat pellentesque adipiscing commodo elit at.