Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Deepfake
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Deepfake
http://dbpedia.org/ontology/abstract Le deepfake [ˈdiːpfeɪk], ou hypertrucage, Le deepfake [ˈdiːpfeɪk], ou hypertrucage, est une technique de synthèse multimédia reposant sur l'intelligence artificielle. Elle peut servir à superposer des fichiers vidéo ou audio existants sur d'autres fichiers vidéo (par exemple changer le visage d'une personne sur une vidéo) ou audio (par exemple reproduire la voix d'une personne pour lui faire dire des choses inventées). Cette technique peut être utilisée pour créer des infox et des canulars malveillants. Le terme deepfake est un mot-valise formé à partir de deep learning (« apprentissage profond ») et de fake (« faux », « contrefait »). Il est possible de créer des hypertrucages en utilisant l'application FakeApp, qui utilise TensorFlow, un outil open source développé par Google. Les hypertrucages vidéos sont aussi appelés infox vidéo ou vidéotox.ont aussi appelés infox vidéo ou vidéotox. , Deepfakes (a portmanteau of "deep learningDeepfakes (a portmanteau of "deep learning" and "fake") are synthetic media in which a person in an existing image or video is replaced with someone else's likeness. While the act of creating fake content is not new, deepfakes leverage powerful techniques from machine learning and artificial intelligence to manipulate or generate visual and audio content that can more easily deceive. The main machine learning methods used to create deepfakes are based on deep learning and involve training generative neural network architectures, such as autoencoders, or generative adversarial networks (GANs). Deepfakes have garnered widespread attention for their potential use in creating child sexual abuse material, celebrity pornographic videos, revenge porn, fake news, hoaxes, bullying, and financial fraud. This has elicited responses from both industry and government to detect and limit their use. From traditional entertainment to gaming, deepfake technology has evolved to be increasingly convincing and available to the public, allowing the disruption of the entertainment and media industries.of the entertainment and media industries. , Deepfake (дипфейк, конкатенация англ. deepDeepfake (дипфейк, конкатенация англ. deep learning — «глубинное обучение» и fake — «подделка») — методика синтеза изображения, основанная на искусственном интеллекте. Методика синтеза изображения используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. В подавляющем большинстве случаев для создания таких видео используют генеративно-состязательные нейросети (GAN). Одна часть алгоритма учится на реальных фотографиях определённого объекта и создаёт изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнёт путать копию с оригиналом.ка та не начнёт путать копию с оригиналом. , 深偽技術(英語:Deepfake)又稱深度偽造,是英文「deep learning」(深度學習)和「fake」(偽造)的混成詞,專指基於人工智能的人體圖像合成技術的应用。此技術可將已有的圖像或影片至目標圖像或影片上。偽造面部表情并將其渲染至目標影片的技術在2016年出現,此技術允許近實時地偽造文書現有2D視頻中的面部表情。为发展Deepfakes检测技术,Facebook联合微软举办全球Deepfakes检测竞赛。 , التزييف العميق (بالإنجليزية: Deepfake)‏ هيالتزييف العميق (بالإنجليزية: Deepfake)‏ هي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال تعلّم الذكاء الاصطناعي. تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف. استُعمِلت هذه التقنيّة في إنشاءِ مقاطع فيديو إباحيّة مزيفة لعددٍ من المشاهير كما استُخدمت في أحيان أخرى لخلق أخبار كاذبة ومُحاولة خدع القُرّاء والانتقام الاباحي.ة ومُحاولة خدع القُرّاء والانتقام الاباحي. , Deepfake, uma amálgama de "deep learning" Deepfake, uma amálgama de "deep learning" (aprendizagem profunda em inglês) e "fake" (falso em inglês), é uma técnica de síntese de imagens ou sons humanos baseada em técnicas de inteligência artificial. É mais usada para combinar a fala qualquer a um vídeo já existente (exemplo: combinar um vídeo qualquer de Barack Obama com a fala "O programa Obamacare não foi uma boa ideia"). A técnica de aprendizado de máquina mais utilizada para criação de vídeos falsos é a chamada Rede Generativa Adversarial. Vídeos criados via deepfake foram muito utilizados para criar falsos vídeos de caráter sexual de celebridades, ou falsos vídeos de pornografia de vingança. A pornografia de deepfake foi muito utilizada em 2017, particularmente em fóruns do Reddit, e tem sido banido de sites incluindo Reddit, Twitter e Pornhub. Deepfakes também podem ser utilizadas para gerar notícias falsas, como o exemplo na definição, e embustes maliciosos. Vídeos não pornográficos criados por deepfakes podem ser facilmente encontrados em sites de streaming como o Youtube. Um aplicativo famoso de manipulação de vídeos e imagens é o FakeApp, o qual utiliza o framework de aprendizagem de máquina TensorFlow, desenvolvido pela Google, para as desejadas criações. Outro aplicativo mais recente é o Deep Voice, porém a ideia do programa é clonar a voz original do orador. Técnicas para gerar gestos faciais falsos e renderização de imagens em vídeos alvos para que uma pessoa alvo ficasse parecida com a pessoa de entrada, foram apresentadas em 2016 e permitiram um falsificador de quase tempo real para expressões faciais em vídeos de 2 dimensões já existentes. A partir do desenvolvimento desta tecnologia, naturalmente, passou-se a utilizar essa inovação tecnológica para a prática de fatos moralmente reprováveis, tais como pornografia, falsidades ideológicas e principalmente ofensa ao direito à imagem. O deepfake é uma recente inovação tecnológica, razão pela qual, não existe legislação específica para tutelá-lo. A Câmara dos Deputados aprovou um projeto de lei que criminaliza a prática do deepfake no Brasil. A ideia é coibir o uso da tecnologia para a criação de vídeos ou imagens íntimas falsas de pessoas. Há necessidade, portanto, de criar uma legislação que atenda às nossas exigências do Direito Digital – como o deepfake, no campo cível, criminal, administrativo, eleitoral, dentre outros, visando a segura proteção dos indivíduos em meio às novas tecnologias.s indivíduos em meio às novas tecnologias. , 딥페이크(deepfake, 딥 러닝(deep learning)과 가짜(fak딥페이크(deepfake, 딥 러닝(deep learning)과 가짜(fake)의 혼성어)는 인공 지능을 기반으로 한 인간 이미지 합성 기술이다. 생성적 적대 신경망(GAN)라는 기계 학습 기술을 사용하여, 기존의 사진이나 영상을 원본이 되는 사진이나 영상에 겹쳐서 만들어낸다. 딥페이크는 영화나 방송계 등에서 이미 사망하거나 나이가 든 배우를 스크린에 되살리거나 초상권 보호 등을 위해 사용할 수 있는 한편, 유명인의 가짜 섹스 동영상이나 가짜 리벤지 포르노, 가짜 뉴스나 악의적 사기를 만드는 데에 사용되어 논란이 되기도 했다.르노, 가짜 뉴스나 악의적 사기를 만드는 데에 사용되어 논란이 되기도 했다. , Deepfake o ultrafalso ​ es un acrónimo delDeepfake o ultrafalso ​ es un acrónimo del inglés formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo.​ Es una técnica de inteligencia artificial que permite editar vídeos falsos de personas que aparentemente son reales, utilizando para ello algoritmos de aprendizaje no supervisados, conocidos en español como RGAs (Red generativa antagónica), y vídeos o imágenes ya existentes.​ El resultado final de dicha técnica es un vídeo muy realista, aunque ficticio. Entre los ejemplos destacados de uso del uso de la técnica del deepfake​ se encuentran dos escenas de la película Rogue One una historia de Star Wars (2016) en las que la Princesa Leia aparece con la cara de Carrie Fisher cuando era joven, cuando en realidad fue interpretada por la actriz noruega .​ Esta técnica de modelo de RGAs se popularizó por la creación de contenido falsificado en el que un actor o personaje del espectáculo aparecía participando en un vídeo pornográfico realizando actos sexuales. En esta modalidad de vídeos falsos, éstos son creados mediante la combinación de un vídeo pornográfico (que es utilizado como referente para el algoritmo) más otro vídeo o imagen del actor o personaje, el cual es procesado por el programa informático con técnicas deepfake. No importa que el actor o personaje nunca haya realizado escenas o vídeos pornográficos, precisamente lo que se persigue es crear el efecto, lo más realista posible, de que algo así ha ocurrido. Debido a la abundancia de contenido pornográfico que existe en Internet, los vídeos deepfake acostumbran a crear falsificaciones pornográficas de celebridades aunque cabe resaltar que también son usados para falsificar noticias y crear bulos malintencionados. Esta tecnología emergente vio su origen en el mundo de la investigación con aplicaciones prácticas en el mundo del cine como una alternativa a los procesos construcciones digitales que tienden a generar altos costos. Quizá el ejemplo más famoso de la implementación de esta tecnología en el cine es en la última película de la saga Star Wars. En la cual la actriz Carrie Fisher, conocida por su personaje princesa Leia, había fallecido durante su rodaje, por lo que hubo que hacer uso de esta técnica para las escenas que faltaba grabar. Gracias a los algoritmos RGA se pueden generar fotografías que parecen auténticas a observadores humanos. Por ejemplo, una fotografía sintética de un gato que consiga engañar al discriminador (una de las partes funcionales del algoritmo) es probable que lleve a una persona cualquiera a aceptarlo como una fotografía real.​era a aceptarlo como una fotografía real.​ , ディープフェイク(英: deepfake)は、「深層学習(deep learningディープフェイク(英: deepfake)は、「深層学習(deep learning)」と「偽物(fake)」を組み合わせた混成語(かばん語)で、人工知能にもとづく人物画像合成の技術を指す。「敵対的生成ネットワーク(GANs)」と呼ばれる機械学習技術を使用して、既存の画像と映像を、元となる画像または映像に重ね合わせて(スーパーインポーズ)、結合することで生成される。 既存と元の映像を結合することにより、実際には起こっていない出来事で行動している1人あるいは複数人の偽の映像が生み出されることとなる。 そのような偽の映像で、例えば、実際にはしていない性行為をしているように見せかけたり、実際とは異なる言葉やジェスチャーに変更するといった政治的な利用が可能となる。これらの機能により、有名人のポルノビデオまたはリベンジポルノの偽造作成のため、ディープフェイクが使用される可能性がある。さらに、ディープフェイクは、虚偽報道や悪意のあるでっち上げを作成するためにも使用され得る 。ディープフェイクは、虚偽報道や悪意のあるでっち上げを作成するためにも使用され得る 。 , Діпфе́йк (англ. deepfake; конкатенація сліДіпфе́йк (англ. deepfake; конкатенація слів deep learning («глибинне навчання») та fake («підробка»)) — методика синтезу зображення людини, яка базується на штучному інтелекті. Використовують для поєднання і накладення одних зображень та відео на інші зображення або відеоролики. Діпфейк можна використати для створення фальшивих порнографічних відео із селебриті або для помсти. Діпфейкова порнографія з'явилася в Інтернеті 2017 року, зокрема на Reddit, і була заборонена сайтами, зокрема, Reddit, Twitter і Pornhub. Діпфейк використовують для створення підроблених новин і зловмисних обманів. Непорнографічні діпфейк-ролики можна легко знайти на популярних вебсайтах потокового відео, таких як YouTube або Vimeo. Популярна програма для діпфейку FakeApp використовує TensorFlow. Методи виявлення жестів та перетворення початкового відео на відео з особою, схожою на цільову особу, представлені 2016 року, дозволяють обчислення в режимі реального часу підробних мімічних виразів у наявному 2D-відео.бних мімічних виразів у наявному 2D-відео. , Deepfake (lakuran dari "deep learning" danDeepfake (lakuran dari "deep learning" dan "fake") adalah teknik untuk menggunakan kecerdasan buatan. Deepfake digunakan untuk menggabungkan dan gambar dan video yang ada ke sumber gambar atau video menggunakan teknik pemelajaran mesin yang dikenal sebagai . Karena kemampuan ini, deepfake telah digunakan untuk membuat , pornografi balas dendam, berita palsu, hoax, perundungan, dan penipuan finansial. Ini telah memicu respon baik dari industri maupun pemerintah untuk mendeteksi dan membatasi penggunaannya.uk mendeteksi dan membatasi penggunaannya. , Il deepfake (parola coniata nel 2017) è unIl deepfake (parola coniata nel 2017) è una tecnica per la sintesi dell'immagine umana basata sull'intelligenza artificiale, usata per combinare e sovrapporre immagini e video esistenti con video o immagini originali, tramite una tecnica di apprendimento automatico, conosciuta come rete antagonista generativa. È stata anche usata per creare falsi video pornografici ritraenti celebrità e per il revenge porn, ma può anche essere usato per creare fake news, bufale e truffe, per compiere atti di cyberbullismo o altri crimini informatici di varia natura oppure per satira.rmatici di varia natura oppure per satira. , Deepfake, hipertrucatge o permutació intelDeepfake, hipertrucatge o permutació intel·ligent de rostres, és una tècnica realitzada amb programes d’intel·ligència artificial els quals combinen, reemplacen i superposen imatges, videoclips i àudios per crear vídeos falsos que semblin autèntics i reals. Aquesta tecnologia és sovint utilitzada per a manipular fotografies, vídeos i sons per simular amb gran realisme l'existència de persones, objectes i situacions inventades. Tot això és molt perillós ja que gairebé qualsevol persona amb un ordinador pot fabricar aquest tipus de vídeos falsos, pràcticament indistingibles dels reals, amb intencions malèvoles per manipular l’opinió pública, per exemple, en l'àmbit polític o judicial, creant Fake news i falses alarmes canviant el rostre i veu d'una persona sobre un vídeo. El terme és un mot creuat format per deep learning («aprenentatge profund») i de fake («fals»).aprenentatge profund») i de fake («fals»). , Deepfake (zbitka wyrazowa od ang. deep leaDeepfake (zbitka wyrazowa od ang. deep learning „głębokie uczenie” oraz fake „fałszywy”) – technika obróbki obrazu, polegająca na łączeniu obrazów twarzy ludzkich przy użyciu technik sztucznej inteligencji. Technika stosowana jest do łączenia i nakładania obrazów nieruchomych i ruchomych na obrazy lub filmy źródłowe przy użyciu komputerowych systemów uczących się. Uzyskane w ten sposób łudząco realistyczne ruchome obrazy stosowane są w nagraniach filmowych, stwarzając możliwości manipulacji poprzez np. niemożliwą do odróżnienia przez widza zamianę twarzy aktorów występujących w filmie. Może to prowadzić do skompromitowania osoby poprzez fałszywe „obsadzenie jej” np. w roli w filmie pornograficznym. Jednym z zagrożeń fałszywymi informacjami jest możliwość wpłynięcia na wyniki wyborów. Pojęcie deepfake pojawiło się po raz pierwszy w końcu 2017, a nazwę zaczerpnięto od pseudonimu użytkownika, który opublikował kilka filmów porno zrealizowanych przy użyciu algorytmu uczenia maszynowego z wykorzystaniem wizerunków m.in. Gal Gadot, Maisie Williams i Taylor Swift. Według raportu Deeptrace technologia rozwija się bardzo szybko. Na początku 2019 roku w internecie zaprezentowano 7964 filmów deepfake, dziesięć miesięcy później ich liczba wynosiła 14678. Wiele kwestii prawnych związanych z technologią nie zostało jeszcze uregulowanych.nologią nie zostało jeszcze uregulowanych. , Deepfakes (engl. Kofferwort aus den BegrifDeepfakes (engl. Kofferwort aus den Begriffen „Deep Learning“ und „Fake“) sind realistisch wirkende Medieninhalte (Foto, Audio und Video), die durch Techniken der künstlichen Intelligenz abgeändert und verfälscht worden sind. Obwohl Medienmanipulation kein neues Phänomen darstellt, nutzen Deepfakes Methoden des maschinellen Lernens, genauer künstliche neuronale Netzwerke, um Fälschungen weitgehend autonom zu erzeugen.älschungen weitgehend autonom zu erzeugen. , Deepfake (een samentrekking van de EngelseDeepfake (een samentrekking van de Engelse woorden deep learning en fake) is een techniek voor het samenstellen van menselijke beelden op basis van kunstmatige intelligentie. Het wordt gebruikt om bestaande afbeeldingen en video te combineren en over elkaar te zetten met een techniek bekend als generative adversarial network. De benaming "deepfake" ontstond in 2017. Door deze mogelijkheid werden deepfakes al gebruikt om niet-bestaande pornografische video's te maken vanbekendheden. Deepfakes kunnen ook gebruikt worden om nepnieuws en misleidende hoaxen te maken. nepnieuws en misleidende hoaxen te maken. , Deepfake (eller deep fake eller djupfejk) Deepfake (eller deep fake eller djupfejk) är förfalskade videor, bilder eller ljud som genom maskininlärning kommit att bli så genomarbetade att de framstår som äkta. Begreppet ”deepfake” började användas 2017 och kommer från orden "deep learning" i meningen "djup maskinlärning" och "fake" i meningen ”falsk”. Djup maskinlärning är avancerad artificiell intelligens (AI) där flera lager av maskininlärda algoritmer används för att kunna plocka ut indataegenskaper på hög avancerad nivå. Deepfakes kan med hjälp av maskininlärning på ett enkelt sätt låta personer i filmklipp få någon annans ansikte och röst med mycket trovärdigt resultat. De första filmerna med deepfakes som spreds på internet var porrfilmer där porrskådespelarens ansikte hade ersatts av med kändisars ansikten. Tekniken har bland annat kommit att användas av bedragare för att begå olika digitala brott och har använts inom politiken för att påverka genom att sprida manipulerade videor av politiker där de framför åsikter som de inte står för. För att skapa en deepfake tränas en maskinmodell med bilder på ett ansikte. Det behövs mellan 500–1000 bilder från olika vinklar för att kunna skapa en trovärdig kopia av ansiktet. En app som använder denna teknik är . FakeApp är ett komplett Windows-program som har förfinats alltmer till ett lättarbetat gränssnitt för vem som helst att börja använda. Bland de deepfakes som fått stor viral spridning finns bland annat en film som visar hur en manipulerad Barack Obama sågar sin efterträdare Donald Trump. Under Rysslands invasion av Ukraina 2022 spreds en deepfake på Ukrainas president Volodymyr Zelenskyj där en video manipulerats så det framstår som att han meddelar att Ukraina kapitulerar och uppmanar befolkningen att lägga ner sina vapen. I september 2019 inleddes projektet Deep fake detection challenge, DFDC, med målet att utveckla program för att upptäcka deep fakes. Bakom projektet står bland annat Facebook, Microsoft och flera universitet och forskningsinstitut. En svensk undersökning från Internetstiftelsen 2021 visade att 76 procent av alla svenska internetanvändare oroade sig över att inte kunna identifiera en deepfake, 11 procent kände mycket stor oro.eepfake, 11 procent kände mycket stor oro. , Deepfake ingelesezko akronimoa da, fake (eDeepfake ingelesezko akronimoa da, fake (euskaraz: «faltsu») eta deep learning (euskaraz: «ikaskuntza sakon») hitzekin osatua. Berez, adimen artifizialeko teknika bat da, itxuraz benetakoak diren pertsonen bideo faltsuak editatzeko aukera ematen duena. Horretarako, gainbegiratu gabeko ikaskuntza-algoritmoak (ingelesez: ) eta lehendik dauden bideoak edo irudiak erabiltzen dituzte. Teknika horren azken emaitza oso bideo errealista da, baina fikziozkoa. Deepfakearen teknikaren erabileraren adibide nabarmenen artean Rogue One: A Star Wars Story 2016ko filmaren bi eszena daude, non Leia printzesa pertsonaia Carrie Fisher aktorearen gaztea zeneko aurpegiarekin agertzen den. Benetan aktore norvegiarrak antzeztu zuen eszena horietan. Teknika hau aktore edo celebrity bat bideo pornografiko batean parte hartzen sortzeagatik ezagun bilakatu zen. Bideo faltsuen modalitate honetan, bideo pornografiko bat (algoritmorako erreferente gisa erabiltzen dutena) eta aktore edo celebrityaren beste bideo edo irudi bat konbinatuz sortzen dituzte, gero, programa informatikoak deepfake teknikekin editatzen duena. Ez du axola aktoreak edo celebrityak inoiz eszena edo bideo pornografikorik egin ez izana; hain zuzen ere, lortu nahi dena da horrelako zerbait gertatu izanaren efektua sortzea, ahalik eta errealistena. Interneten dagoen eduki pornografiko ugaria dela eta, deepfake pertsona ospetsuen bideo pornografikoak sortu ohi dituzte, baina albiste faltsuak eta asmo txarreko buluak sortzeko ere erabiltzen dituztela azpimarratu behar da. Teknologia emergente honek ikerketaren munduan izan zuen jatorria, zinema munduko teknika digital garestien alternatiba gisa.eknika digital garestien alternatiba gisa.
http://dbpedia.org/ontology/wikiPageExternalLink https://deepfakedetectionchallenge.ai/ + , https://deepfakes.virtuality.mit.edu/wp-content/uploads/2021/08/Media-Literacy-Bibliography.pdf + , https://www.washingtonpost.com/opinions/the-real-scary-news-about-deepfakes/2018/10/19/6238c3ce-d176-11e8-83d6-291fcead2ab1_story.html + , https://www.asvspoof.org/ +
http://dbpedia.org/ontology/wikiPageID 56641018
http://dbpedia.org/ontology/wikiPageLength 128058
http://dbpedia.org/ontology/wikiPageRevisionID 1124991139
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Identity_theft + , http://dbpedia.org/resource/Angela_Merkel + , http://dbpedia.org/resource/Social_engineering_%28security%29 + , http://dbpedia.org/resource/Howie_Mandel + , http://dbpedia.org/resource/Online_video_platform + , http://dbpedia.org/resource/GitHub + , http://dbpedia.org/resource/Reddit + , http://dbpedia.org/resource/15.ai + , http://dbpedia.org/resource/Trey_Parker + , http://dbpedia.org/resource/Grand_Moff_Tarkin + , http://dbpedia.org/resource/Film + , http://dbpedia.org/resource/Cyberstalking + , http://dbpedia.org/resource/Latent_space + , http://dbpedia.org/resource/Opera + , http://dbpedia.org/resource/United_States_Senate + , http://dbpedia.org/resource/Category:Applications_of_artificial_intelligence + , http://dbpedia.org/resource/Queering + , http://dbpedia.org/resource/Computer_vision + , http://dbpedia.org/resource/Photorealistic + , http://dbpedia.org/resource/Vladimir_Putin + , http://dbpedia.org/resource/Benjamin_Netanyahu + , http://dbpedia.org/resource/Information_Sciences_Institute + , http://dbpedia.org/resource/Synthetic_media + , http://dbpedia.org/resource/Extinction_Rebellion + , http://dbpedia.org/resource/Regulation_of_artificial_intelligence + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/The_Running_Man_%281987_film%29 + , http://dbpedia.org/resource/Virtual_actor + , http://dbpedia.org/resource/Linux + , http://dbpedia.org/resource/House_Intelligence_Committee + , http://dbpedia.org/resource/Massachusetts_Institute_of_Technology + , http://dbpedia.org/resource/Holography + , http://dbpedia.org/resource/Russia + , http://dbpedia.org/resource/2020_Delhi_Legislative_Assembly_election + , http://dbpedia.org/resource/Communications_Security_Establishment + , http://dbpedia.org/resource/Volodymyr_Zelenskyy + , http://dbpedia.org/resource/National_Football_League + , http://dbpedia.org/resource/Mark_Zuckerberg + , http://dbpedia.org/resource/Sockpuppet_%28internet%29 + , http://dbpedia.org/resource/January_2019_Oval_Office_address + , http://dbpedia.org/resource/Adolf_Hitler + , http://dbpedia.org/resource/General_adversarial_network + , http://dbpedia.org/resource/Mauricio_Macri + , http://dbpedia.org/resource/Metaphysic_AI + , http://dbpedia.org/resource/File:Vladimir_Putin_warning_Americans_on_election_interference_and_increasing_political_divide.webm + , http://dbpedia.org/resource/Shuman_Ghosemajumder + , http://dbpedia.org/resource/Synthesia_%28software_company%29 + , http://dbpedia.org/resource/Romeo_%2B_Juliet + , http://dbpedia.org/resource/Emily_van_der_Nagel + , http://dbpedia.org/resource/Vovan_and_Lexus + , http://dbpedia.org/resource/Donald_Trump + , http://dbpedia.org/resource/Recruitment_of_spies + , http://dbpedia.org/resource/Category:2018_neologisms + , http://dbpedia.org/resource/Generative_adversarial_network + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Foreign_electoral_intervention + , http://dbpedia.org/resource/Video_art + , http://dbpedia.org/resource/Elvis_Presley + , http://dbpedia.org/resource/Right-wing_politics + , http://dbpedia.org/resource/North_Korea + , http://dbpedia.org/resource/Yakuza_0 + , http://dbpedia.org/resource/Vice_%28magazine%29 + , http://dbpedia.org/resource/Digital_video + , http://dbpedia.org/resource/Media_industry + , http://dbpedia.org/resource/Startup_company + , http://dbpedia.org/resource/Las_Vegas_Raiders + , http://dbpedia.org/resource/Solo:_A_Star_Wars_Story + , http://dbpedia.org/resource/Kendrick_Lamar + , http://dbpedia.org/resource/Category:Applications_of_computer_vision + , http://dbpedia.org/resource/Intelligence_officer + , http://dbpedia.org/resource/Kanye_West + , http://dbpedia.org/resource/University_of_Southern_California + , http://dbpedia.org/resource/The_Heart_Part_5 + , http://dbpedia.org/resource/Stoneman_Douglas_High_School_shooting + , http://dbpedia.org/resource/Identity_replacement_technology + , http://dbpedia.org/resource/Satire + , http://dbpedia.org/resource/Disinformation + , http://dbpedia.org/resource/Bruno_Sartori + , http://dbpedia.org/resource/Mandarin_Chinese + , http://dbpedia.org/resource/Analog_Science_Fiction_and_Fact + , http://dbpedia.org/resource/Wake_Me_Up_%28Avicii_song%29 + , http://dbpedia.org/resource/Lip_sync + , http://dbpedia.org/resource/Category:Identity_theft + , http://dbpedia.org/resource/Kyiv + , http://dbpedia.org/resource/Category:Special_effects + , http://dbpedia.org/resource/Rising_Sun_%28film%29 + , http://dbpedia.org/resource/Aloe_Blacc + , http://dbpedia.org/resource/America%27s_Got_Talent + , http://dbpedia.org/resource/Category:Computer_graphics + , http://dbpedia.org/resource/Jake_Elwes + , http://dbpedia.org/resource/Prime_Minister_of_Israel + , http://dbpedia.org/resource/Daisy_Ridley + , http://dbpedia.org/resource/Revenge_porn + , http://dbpedia.org/resource/Ornella_Muti + , http://dbpedia.org/resource/Category:Internet_memes_introduced_in_2020 + , http://dbpedia.org/resource/Terry_Crews + , http://dbpedia.org/resource/Minigame + , http://dbpedia.org/resource/Nancy_Pelosi + , http://dbpedia.org/resource/Entertainment + , http://dbpedia.org/resource/English_language + , http://dbpedia.org/resource/BuzzFeed_News + , http://dbpedia.org/resource/Incitement + , http://dbpedia.org/resource/Category:Deepfakes + , http://dbpedia.org/resource/Generative_adversarial_networks + , http://dbpedia.org/resource/You%27re_the_Inspiration + , http://dbpedia.org/resource/Internet_meme + , http://dbpedia.org/resource/Twitter + , http://dbpedia.org/resource/File:Dictators_-_Kim_Jong-Un_by_RepresentUs.webm + , http://dbpedia.org/resource/Congressional_Research_Service + , http://dbpedia.org/resource/Audio_deepfake + , http://dbpedia.org/resource/Barack_Obama + , http://dbpedia.org/resource/Avicii + , http://dbpedia.org/resource/Haryanvi_language + , http://dbpedia.org/resource/Simon_Cowell + , http://dbpedia.org/resource/Philip_Kerr + , http://dbpedia.org/resource/30_for_30 + , http://dbpedia.org/resource/Autoencoder + , http://dbpedia.org/resource/Robert_Kardashian + , http://dbpedia.org/resource/Visual_effects + , http://dbpedia.org/resource/Matt_Stone + , http://dbpedia.org/resource/Game_of_Thrones + , http://dbpedia.org/resource/The_Walt_Disney_Company + , http://dbpedia.org/resource/Kim_Jong-un + , http://dbpedia.org/resource/KCPQ + , http://dbpedia.org/resource/Category:Deep_learning + , http://dbpedia.org/resource/University_of_California%2C_Berkeley + , http://dbpedia.org/resource/Hao_Li + , http://dbpedia.org/resource/Time_travel + , http://dbpedia.org/resource/Fox_Broadcasting_Company + , http://dbpedia.org/resource/Al_Davis + , http://dbpedia.org/resource/Recurrent_neural_network + , http://dbpedia.org/resource/Bullying + , http://dbpedia.org/resource/StyleGAN + , http://dbpedia.org/resource/Facial_motion_capture + , http://dbpedia.org/resource/ESPN + , http://dbpedia.org/resource/Leonid_Volkov_%28politician%29 + , http://dbpedia.org/resource/Computer_facial_animation + , http://dbpedia.org/resource/Center_for_American_Progress + , http://dbpedia.org/resource/Gfycat + , http://dbpedia.org/resource/2020_United_States_presidential_election + , http://dbpedia.org/resource/TikTok + , http://dbpedia.org/resource/Artificial_intelligence + , http://dbpedia.org/resource/Nicolas_Cage + , http://dbpedia.org/resource/History_of_the_Los_Angeles_Raiders + , http://dbpedia.org/resource/Pornhub + , http://dbpedia.org/resource/Category:Articles_containing_video_clips + , http://dbpedia.org/resource/COVID-19 + , http://dbpedia.org/resource/Yakuza_%28series%29 + , http://dbpedia.org/resource/Sassy_Justice + , http://dbpedia.org/resource/Accounting_scandals + , http://dbpedia.org/resource/Photo_manipulation + , http://dbpedia.org/resource/Cyberspace_Administration_of_China + , http://dbpedia.org/resource/History_of_the_Oakland_Raiders + , http://dbpedia.org/resource/Google + , http://dbpedia.org/resource/Gaming_computer + , http://dbpedia.org/resource/Belgium + , http://dbpedia.org/resource/Category:2010s_neologisms + , http://dbpedia.org/resource/Digital_cloning + , http://dbpedia.org/resource/Karaoke + , http://dbpedia.org/resource/BBC_One + , http://dbpedia.org/resource/Defense_Advanced_Research_Projects_Agency + , http://dbpedia.org/resource/RepresentUs + , http://dbpedia.org/resource/Partisan_%28politics%29 + , http://dbpedia.org/resource/Look-alike + , http://dbpedia.org/resource/White_hat_%28computer_security%29 + , http://dbpedia.org/resource/Human_image_synthesis + , http://dbpedia.org/resource/Uncanny_valley + , http://dbpedia.org/resource/Celebrity_sex_tape + , http://dbpedia.org/resource/Welcome_to_Chechnya + , http://dbpedia.org/resource/Phone_hacking + , http://dbpedia.org/resource/Tom_Cruise + , http://dbpedia.org/resource/Jimmy_Fallon + , http://dbpedia.org/resource/Alexei_Navalny + , http://dbpedia.org/resource/Category:Media_studies + , http://dbpedia.org/resource/Jordan_Peele + , http://dbpedia.org/resource/BuzzFeed + , http://dbpedia.org/resource/Espionage + , http://dbpedia.org/resource/Manoj_Tiwari_%28politician%29 + , http://dbpedia.org/resource/Portmanteau + , http://dbpedia.org/resource/2022_Russian_invasion_of_Ukraine + , http://dbpedia.org/resource/Fake_news + , http://dbpedia.org/resource/Public_service_announcement + , http://dbpedia.org/resource/America%27s_Got_Talent_%28season_17%29 + , http://dbpedia.org/resource/Convolutional_neural_network + , http://dbpedia.org/resource/Project_Jupyter + , http://dbpedia.org/resource/Pete_Rozelle + , http://dbpedia.org/resource/A_Philosophical_Investigation + , http://dbpedia.org/resource/Gavin_Newsom + , http://dbpedia.org/resource/CCTV + , http://dbpedia.org/resource/Haryana + , http://dbpedia.org/resource/The_Verge + , http://dbpedia.org/resource/Zero-sum_game + , http://dbpedia.org/resource/Harrison_Ford + , http://dbpedia.org/resource/Instagram + , http://dbpedia.org/resource/The_Capture_%28TV_series%29 + , http://dbpedia.org/resource/Hoax + , http://dbpedia.org/resource/Classified_information + , http://dbpedia.org/resource/The_Washington_Post + , http://dbpedia.org/resource/Hyperreality + , http://dbpedia.org/resource/Joe_Biden + , http://dbpedia.org/resource/Blob_detection + , http://dbpedia.org/resource/Momo_%28software%29 + , http://dbpedia.org/resource/Gabriele_de_Seta + , http://dbpedia.org/resource/De-aging_in_film + , http://dbpedia.org/resource/United_States_House_of_Representatives + , http://dbpedia.org/resource/Interactive_online_characters + , http://dbpedia.org/resource/Windows + , http://dbpedia.org/resource/O._J._Simpson + , http://dbpedia.org/resource/Disney + , http://dbpedia.org/resource/Child_sexual_abuse + , http://dbpedia.org/resource/Blockchain + , http://dbpedia.org/resource/The_Tonight_Show_Starring_Jimmy_Fallon + , http://dbpedia.org/resource/Discord_%28software%29 + , http://dbpedia.org/resource/Rogue_One + , http://dbpedia.org/resource/South_Park + , http://dbpedia.org/resource/Chicago_%28band%29 + , http://dbpedia.org/resource/Monkeypaw_Productions + , http://dbpedia.org/resource/Deforestation + , http://dbpedia.org/resource/Jair_Bolsonaro + , http://dbpedia.org/resource/Crime + , http://dbpedia.org/resource/Spanish_language + , http://dbpedia.org/resource/Social_networks + , http://dbpedia.org/resource/Nipsey_Hussle + , http://dbpedia.org/resource/Kendall_Jenner + , http://dbpedia.org/resource/Facebook +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Differentiable_computing + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Globalize + , http://dbpedia.org/resource/Template:Main + , http://dbpedia.org/resource/Template:Anchor + , http://dbpedia.org/resource/Template:Nihongo + , http://dbpedia.org/resource/Template:Cite_news + , http://dbpedia.org/resource/Template:Check_quotation + , http://dbpedia.org/resource/Template:Media_manipulation + , http://dbpedia.org/resource/Template:Artificial_intelligence + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Use_dmy_dates + , http://dbpedia.org/resource/Template:Commons_category +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Deepfakes + , http://dbpedia.org/resource/Category:Internet_memes_introduced_in_2020 + , http://dbpedia.org/resource/Category:2018_neologisms + , http://dbpedia.org/resource/Category:Identity_theft + , http://dbpedia.org/resource/Category:Media_studies + , http://dbpedia.org/resource/Category:Applications_of_artificial_intelligence + , http://dbpedia.org/resource/Category:2010s_neologisms + , http://dbpedia.org/resource/Category:Articles_containing_video_clips + , http://dbpedia.org/resource/Category:Computer_graphics + , http://dbpedia.org/resource/Category:Deep_learning + , http://dbpedia.org/resource/Category:Special_effects + , http://dbpedia.org/resource/Category:Applications_of_computer_vision +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Deepfake?oldid=1124991139&ns=0 +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Deepfake +
owl:sameAs http://ko.dbpedia.org/resource/%EB%94%A5%ED%8E%98%EC%9D%B4%ED%81%AC + , http://he.dbpedia.org/resource/%D7%93%D7%99%D7%A4-%D7%A4%D7%99%D7%99%D7%A7 + , http://nl.dbpedia.org/resource/Deepfake + , http://pt.dbpedia.org/resource/Deepfake + , http://pnb.dbpedia.org/resource/%DA%88%DB%8C%D9%BE_%D9%81%DB%8C%DA%A9_%D9%B9%DB%8C%DA%A9%D9%86%D8%A7%D9%84%D9%88%D8%AC%DB%8C + , http://ar.dbpedia.org/resource/%D8%AA%D8%B2%D9%8A%D9%8A%D9%81_%D8%B9%D9%85%D9%8A%D9%82 + , http://it.dbpedia.org/resource/Deepfake + , http://dbpedia.org/resource/Deepfake + , https://global.dbpedia.org/id/4aptz + , http://uk.dbpedia.org/resource/%D0%94%D1%96%D0%BF%D1%84%D0%B5%D0%B9%D0%BA + , http://sr.dbpedia.org/resource/%D0%94%D0%B8%D0%BF%D1%84%D0%B5%D1%98%D0%BA + , http://ru.dbpedia.org/resource/Deepfake + , http://zh.dbpedia.org/resource/%E6%B7%B1%E4%BC%AA%E6%8A%80%E6%9C%AF + , http://ms.dbpedia.org/resource/Pemalsuan_wajah + , http://sq.dbpedia.org/resource/Deepfake + , http://es.dbpedia.org/resource/Deepfake + , http://ur.dbpedia.org/resource/%DA%88%DB%8C%D9%BE_%D9%81%DB%8C%DA%A9_%D9%B9%DB%8C%DA%A9%D9%86%D8%A7%D9%84%D9%88%D8%AC%DB%8C + , http://hy.dbpedia.org/resource/Deepfake + , http://de.dbpedia.org/resource/Deepfake + , http://lt.dbpedia.org/resource/I%C5%A1manioji_vaizdo_klastot%C4%97 + , http://id.dbpedia.org/resource/Deepfake + , http://bg.dbpedia.org/resource/%D0%94%D0%B8%D0%B9%D0%BF%D1%84%D0%B5%D0%B9%D0%BA + , http://pl.dbpedia.org/resource/Deepfake + , http://fi.dbpedia.org/resource/Deepfake + , http://et.dbpedia.org/resource/S%C3%BCvav%C3%B5ltsing + , http://ca.dbpedia.org/resource/Deepfake + , http://fr.dbpedia.org/resource/Deepfake + , http://www.wikidata.org/entity/Q49473179 + , http://sv.dbpedia.org/resource/Deepfake + , http://hi.dbpedia.org/resource/%E0%A4%A1%E0%A5%80%E0%A4%AA%E0%A4%AB%E0%A4%BC%E0%A5%87%E0%A4%95_%E0%A4%9F%E0%A5%87%E0%A4%95%E0%A5%8D%E0%A4%A8%E0%A5%8B%E0%A4%B2%E0%A5%89%E0%A4%9C%E0%A5%80 + , http://th.dbpedia.org/resource/%E0%B8%94%E0%B8%B5%E0%B8%9B%E0%B9%80%E0%B8%9F%E0%B8%81 + , http://fa.dbpedia.org/resource/%D8%AC%D8%B9%D9%84_%D8%B9%D9%85%DB%8C%D9%82 + , http://vi.dbpedia.org/resource/Deepfake + , http://tr.dbpedia.org/resource/Deepfake + , http://ja.dbpedia.org/resource/%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%95%E3%82%A7%E3%82%A4%E3%82%AF + , http://eu.dbpedia.org/resource/Deepfake +
rdfs:comment التزييف العميق (بالإنجليزية: Deepfake)‏ هيالتزييف العميق (بالإنجليزية: Deepfake)‏ هي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال تعلّم الذكاء الاصطناعي. تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف. استُعمِلت هذه التقنيّة في إنشاءِ مقاطع فيديو إباحيّة مزيفة لعددٍ من المشاهير كما استُخدمت في أحيان أخرى لخلق أخبار كاذبة ومُحاولة خدع القُرّاء والانتقام الاباحي.ة ومُحاولة خدع القُرّاء والانتقام الاباحي. , Deepfake (lakuran dari "deep learning" danDeepfake (lakuran dari "deep learning" dan "fake") adalah teknik untuk menggunakan kecerdasan buatan. Deepfake digunakan untuk menggabungkan dan gambar dan video yang ada ke sumber gambar atau video menggunakan teknik pemelajaran mesin yang dikenal sebagai . Karena kemampuan ini, deepfake telah digunakan untuk membuat , pornografi balas dendam, berita palsu, hoax, perundungan, dan penipuan finansial. Ini telah memicu respon baik dari industri maupun pemerintah untuk mendeteksi dan membatasi penggunaannya.uk mendeteksi dan membatasi penggunaannya. , Deepfakes (engl. Kofferwort aus den BegrifDeepfakes (engl. Kofferwort aus den Begriffen „Deep Learning“ und „Fake“) sind realistisch wirkende Medieninhalte (Foto, Audio und Video), die durch Techniken der künstlichen Intelligenz abgeändert und verfälscht worden sind. Obwohl Medienmanipulation kein neues Phänomen darstellt, nutzen Deepfakes Methoden des maschinellen Lernens, genauer künstliche neuronale Netzwerke, um Fälschungen weitgehend autonom zu erzeugen.älschungen weitgehend autonom zu erzeugen. , Deepfake o ultrafalso ​ es un acrónimo delDeepfake o ultrafalso ​ es un acrónimo del inglés formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo.​ Es una técnica de inteligencia artificial que permite editar vídeos falsos de personas que aparentemente son reales, utilizando para ello algoritmos de aprendizaje no supervisados, conocidos en español como RGAs (Red generativa antagónica), y vídeos o imágenes ya existentes.​ El resultado final de dicha técnica es un vídeo muy realista, aunque ficticio. Entre los ejemplos destacados de uso del uso de la técnica del deepfake​ se encuentran dos escenas de la película Rogue One una historia de Star Wars (2016) en las que la Princesa Leia aparece con la cara de Carrie Fisher cuando era joven, cuando en realidad fue interpretada por la actriz noruega .​ fue interpretada por la actriz noruega .​ , Deepfake (дипфейк, конкатенация англ. deepDeepfake (дипфейк, конкатенация англ. deep learning — «глубинное обучение» и fake — «подделка») — методика синтеза изображения, основанная на искусственном интеллекте. Методика синтеза изображения используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. В подавляющем большинстве случаев для создания таких видео используют генеративно-состязательные нейросети (GAN). Одна часть алгоритма учится на реальных фотографиях определённого объекта и создаёт изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнёт путать копию с оригиналом.ка та не начнёт путать копию с оригиналом. , Le deepfake [ˈdiːpfeɪk], ou hypertrucage, Le deepfake [ˈdiːpfeɪk], ou hypertrucage, est une technique de synthèse multimédia reposant sur l'intelligence artificielle. Elle peut servir à superposer des fichiers vidéo ou audio existants sur d'autres fichiers vidéo (par exemple changer le visage d'une personne sur une vidéo) ou audio (par exemple reproduire la voix d'une personne pour lui faire dire des choses inventées). Cette technique peut être utilisée pour créer des infox et des canulars malveillants. Le terme deepfake est un mot-valise formé à partir de deep learning (« apprentissage profond ») et de fake (« faux », « contrefait »). ») et de fake (« faux », « contrefait »). , Deepfake ingelesezko akronimoa da, fake (eDeepfake ingelesezko akronimoa da, fake (euskaraz: «faltsu») eta deep learning (euskaraz: «ikaskuntza sakon») hitzekin osatua. Berez, adimen artifizialeko teknika bat da, itxuraz benetakoak diren pertsonen bideo faltsuak editatzeko aukera ematen duena. Horretarako, gainbegiratu gabeko ikaskuntza-algoritmoak (ingelesez: ) eta lehendik dauden bideoak edo irudiak erabiltzen dituzte. Teknika horren azken emaitza oso bideo errealista da, baina fikziozkoa. Deepfakearen teknikaren erabileraren adibide nabarmenen artean Rogue One: A Star Wars Story 2016ko filmaren bi eszena daude, non Leia printzesa pertsonaia Carrie Fisher aktorearen gaztea zeneko aurpegiarekin agertzen den. Benetan aktore norvegiarrak antzeztu zuen eszena horietan.orvegiarrak antzeztu zuen eszena horietan. , 딥페이크(deepfake, 딥 러닝(deep learning)과 가짜(fak딥페이크(deepfake, 딥 러닝(deep learning)과 가짜(fake)의 혼성어)는 인공 지능을 기반으로 한 인간 이미지 합성 기술이다. 생성적 적대 신경망(GAN)라는 기계 학습 기술을 사용하여, 기존의 사진이나 영상을 원본이 되는 사진이나 영상에 겹쳐서 만들어낸다. 딥페이크는 영화나 방송계 등에서 이미 사망하거나 나이가 든 배우를 스크린에 되살리거나 초상권 보호 등을 위해 사용할 수 있는 한편, 유명인의 가짜 섹스 동영상이나 가짜 리벤지 포르노, 가짜 뉴스나 악의적 사기를 만드는 데에 사용되어 논란이 되기도 했다.르노, 가짜 뉴스나 악의적 사기를 만드는 데에 사용되어 논란이 되기도 했다. , Deepfake (een samentrekking van de EngelseDeepfake (een samentrekking van de Engelse woorden deep learning en fake) is een techniek voor het samenstellen van menselijke beelden op basis van kunstmatige intelligentie. Het wordt gebruikt om bestaande afbeeldingen en video te combineren en over elkaar te zetten met een techniek bekend als generative adversarial network. De benaming "deepfake" ontstond in 2017. Door deze mogelijkheid werden deepfakes al gebruikt om niet-bestaande pornografische video's te maken vanbekendheden. Deepfakes kunnen ook gebruikt worden om nepnieuws en misleidende hoaxen te maken. nepnieuws en misleidende hoaxen te maken. , Діпфе́йк (англ. deepfake; конкатенація сліДіпфе́йк (англ. deepfake; конкатенація слів deep learning («глибинне навчання») та fake («підробка»)) — методика синтезу зображення людини, яка базується на штучному інтелекті. Використовують для поєднання і накладення одних зображень та відео на інші зображення або відеоролики. Діпфейк можна використати для створення фальшивих порнографічних відео із селебриті або для помсти. Діпфейкова порнографія з'явилася в Інтернеті 2017 року, зокрема на Reddit, і була заборонена сайтами, зокрема, Reddit, Twitter і Pornhub. Діпфейк використовують для створення підроблених новин і зловмисних обманів.ня підроблених новин і зловмисних обманів. , Deepfake (eller deep fake eller djupfejk) Deepfake (eller deep fake eller djupfejk) är förfalskade videor, bilder eller ljud som genom maskininlärning kommit att bli så genomarbetade att de framstår som äkta. Begreppet ”deepfake” började användas 2017 och kommer från orden "deep learning" i meningen "djup maskinlärning" och "fake" i meningen ”falsk”. Djup maskinlärning är avancerad artificiell intelligens (AI) där flera lager av maskininlärda algoritmer används för att kunna plocka ut indataegenskaper på hög avancerad nivå. Deepfakes kan med hjälp av maskininlärning på ett enkelt sätt låta personer i filmklipp få någon annans ansikte och röst med mycket trovärdigt resultat. De första filmerna med deepfakes som spreds på internet var porrfilmer där porrskådespelarens ansikte hade ersatts av med kändisars ansikten. Tekniken har blan med kändisars ansikten. Tekniken har blan , Deepfakes (a portmanteau of "deep learningDeepfakes (a portmanteau of "deep learning" and "fake") are synthetic media in which a person in an existing image or video is replaced with someone else's likeness. While the act of creating fake content is not new, deepfakes leverage powerful techniques from machine learning and artificial intelligence to manipulate or generate visual and audio content that can more easily deceive. The main machine learning methods used to create deepfakes are based on deep learning and involve training generative neural network architectures, such as autoencoders, or generative adversarial networks (GANs).or generative adversarial networks (GANs). , ディープフェイク(英: deepfake)は、「深層学習(deep learningディープフェイク(英: deepfake)は、「深層学習(deep learning)」と「偽物(fake)」を組み合わせた混成語(かばん語)で、人工知能にもとづく人物画像合成の技術を指す。「敵対的生成ネットワーク(GANs)」と呼ばれる機械学習技術を使用して、既存の画像と映像を、元となる画像または映像に重ね合わせて(スーパーインポーズ)、結合することで生成される。 既存と元の映像を結合することにより、実際には起こっていない出来事で行動している1人あるいは複数人の偽の映像が生み出されることとなる。 そのような偽の映像で、例えば、実際にはしていない性行為をしているように見せかけたり、実際とは異なる言葉やジェスチャーに変更するといった政治的な利用が可能となる。これらの機能により、有名人のポルノビデオまたはリベンジポルノの偽造作成のため、ディープフェイクが使用される可能性がある。さらに、ディープフェイクは、虚偽報道や悪意のあるでっち上げを作成するためにも使用され得る 。ディープフェイクは、虚偽報道や悪意のあるでっち上げを作成するためにも使用され得る 。 , Deepfake (zbitka wyrazowa od ang. deep leaDeepfake (zbitka wyrazowa od ang. deep learning „głębokie uczenie” oraz fake „fałszywy”) – technika obróbki obrazu, polegająca na łączeniu obrazów twarzy ludzkich przy użyciu technik sztucznej inteligencji. Pojęcie deepfake pojawiło się po raz pierwszy w końcu 2017, a nazwę zaczerpnięto od pseudonimu użytkownika, który opublikował kilka filmów porno zrealizowanych przy użyciu algorytmu uczenia maszynowego z wykorzystaniem wizerunków m.in. Gal Gadot, Maisie Williams i Taylor Swift.Gal Gadot, Maisie Williams i Taylor Swift. , Deepfake, hipertrucatge o permutació intelDeepfake, hipertrucatge o permutació intel·ligent de rostres, és una tècnica realitzada amb programes d’intel·ligència artificial els quals combinen, reemplacen i superposen imatges, videoclips i àudios per crear vídeos falsos que semblin autèntics i reals. Aquesta tecnologia és sovint utilitzada per a manipular fotografies, vídeos i sons per simular amb gran realisme l'existència de persones, objectes i situacions inventades. Tot això és molt perillós ja que gairebé qualsevol persona amb un ordinador pot fabricar aquest tipus de vídeos falsos, pràcticament indistingibles dels reals, amb intencions malèvoles per manipular l’opinió pública, per exemple, en l'àmbit polític o judicial, creant Fake news i falses alarmes canviant el rostre i veu d'una persona sobre un vídeo. El terme és un mot ersona sobre un vídeo. El terme és un mot , 深偽技術(英語:Deepfake)又稱深度偽造,是英文「deep learning」(深度學習)和「fake」(偽造)的混成詞,專指基於人工智能的人體圖像合成技術的应用。此技術可將已有的圖像或影片至目標圖像或影片上。偽造面部表情并將其渲染至目標影片的技術在2016年出現,此技術允許近實時地偽造文書現有2D視頻中的面部表情。为发展Deepfakes检测技术,Facebook联合微软举办全球Deepfakes检测竞赛。 , Deepfake, uma amálgama de "deep learning" Deepfake, uma amálgama de "deep learning" (aprendizagem profunda em inglês) e "fake" (falso em inglês), é uma técnica de síntese de imagens ou sons humanos baseada em técnicas de inteligência artificial. É mais usada para combinar a fala qualquer a um vídeo já existente (exemplo: combinar um vídeo qualquer de Barack Obama com a fala "O programa Obamacare não foi uma boa ideia"). A técnica de aprendizado de máquina mais utilizada para criação de vídeos falsos é a chamada Rede Generativa Adversarial.s é a chamada Rede Generativa Adversarial. , Il deepfake (parola coniata nel 2017) è unIl deepfake (parola coniata nel 2017) è una tecnica per la sintesi dell'immagine umana basata sull'intelligenza artificiale, usata per combinare e sovrapporre immagini e video esistenti con video o immagini originali, tramite una tecnica di apprendimento automatico, conosciuta come rete antagonista generativa. È stata anche usata per creare falsi video pornografici ritraenti celebrità e per il revenge porn, ma può anche essere usato per creare fake news, bufale e truffe, per compiere atti di cyberbullismo o altri crimini informatici di varia natura oppure per satira.rmatici di varia natura oppure per satira.
rdfs:label Deepfake , تزييف عميق , 딥페이크 , 深伪技术 , Діпфейк , ディープフェイク
hide properties that link here 
http://dbpedia.org/resource/Wombo + , http://dbpedia.org/resource/Bruno_Sartori + http://dbpedia.org/ontology/genre
http://dbpedia.org/resource/Deepfakes + , http://dbpedia.org/resource/DeepFake + , http://dbpedia.org/resource/Deepfake_detection + , http://dbpedia.org/resource/Face_swapping + , http://dbpedia.org/resource/Cheap_fake + , http://dbpedia.org/resource/Dumbfake + , http://dbpedia.org/resource/Dumbfakes + , http://dbpedia.org/resource/Deep_fake + , http://dbpedia.org/resource/Deep_fakes + , http://dbpedia.org/resource/Deepfaking + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Anti-gay_purges_in_Chechnya + , http://dbpedia.org/resource/Her_Loss + , http://dbpedia.org/resource/Rachel_Thomas_%28academic%29 + , http://dbpedia.org/resource/List_of_acts_of_the_116th_United_States_Congress + , http://dbpedia.org/resource/MBC_TV_%28South_Korean_TV_channel%29 + , http://dbpedia.org/resource/2020_in_British_television + , http://dbpedia.org/resource/O._J._Simpson_murder_case + , http://dbpedia.org/resource/2022_in_science + , http://dbpedia.org/resource/Generative_adversarial_network + , http://dbpedia.org/resource/David_France_%28writer%29 + , http://dbpedia.org/resource/Syncro-Vox + , http://dbpedia.org/resource/Abandoned_%28video_game%29 + , http://dbpedia.org/resource/Nanosemantics + , http://dbpedia.org/resource/Deepfakes + , http://dbpedia.org/resource/Digital_cloning + , http://dbpedia.org/resource/Hao_Li + , http://dbpedia.org/resource/Megatrend + , http://dbpedia.org/resource/Russian_information_war_against_Ukraine + , http://dbpedia.org/resource/Firehose_of_falsehood + , http://dbpedia.org/resource/Yakuza_%28franchise%29 + , http://dbpedia.org/resource/Fake_Shemp + , http://dbpedia.org/resource/Ruyi_Bridge + , http://dbpedia.org/resource/Nipsey_Hussle + , http://dbpedia.org/resource/Ethics_of_technology + , http://dbpedia.org/resource/Epiphany_Jones + , http://dbpedia.org/resource/The_Future_Bites + , http://dbpedia.org/resource/The_Heart_Part_5 + , http://dbpedia.org/resource/Personality_and_image_of_Elizabeth_II + , http://dbpedia.org/resource/Alternative_Christmas_message + , http://dbpedia.org/resource/30_for_30 + , http://dbpedia.org/resource/15.ai + , http://dbpedia.org/resource/Sarah_Jamie_Lewis + , http://dbpedia.org/resource/2010s_in_science_and_technology + , http://dbpedia.org/resource/Reactions_to_the_murder_of_George_Floyd + , http://dbpedia.org/resource/Be_Right_Back + , http://dbpedia.org/resource/Joe_Biden_%28The_Onion%29 + , http://dbpedia.org/resource/Virtual_actor + , http://dbpedia.org/resource/List_of_most-liked_TikTok_videos + , http://dbpedia.org/resource/Evil_%28TV_series%29 + , http://dbpedia.org/resource/Martin_Crimp + , http://dbpedia.org/resource/List_of_emerging_technologies + , http://dbpedia.org/resource/List_of_American_football_films + , http://dbpedia.org/resource/NCIS:_Los_Angeles_%28season_13%29 + , http://dbpedia.org/resource/2020_in_the_United_Kingdom + , http://dbpedia.org/resource/List_of_years_in_British_television + , http://dbpedia.org/resource/Kendrick_Lamar_Live:_The_Big_Steppers_Tour + , http://dbpedia.org/resource/Internet_censorship_in_China + , http://dbpedia.org/resource/Al_Davis + , http://dbpedia.org/resource/Human_image_synthesis + , http://dbpedia.org/resource/List_of_NCIS:_Los_Angeles_characters + , http://dbpedia.org/resource/Eat_It + , http://dbpedia.org/resource/Omega_Mart + , http://dbpedia.org/resource/Artificial_intelligence_art + , http://dbpedia.org/resource/Gabriele_de_Seta + , http://dbpedia.org/resource/Zao + , http://dbpedia.org/resource/Nth_Room_case + , http://dbpedia.org/resource/Ministries_of_Nineteen_Eighty-Four + , http://dbpedia.org/resource/Social_hacking + , http://dbpedia.org/resource/Shane_Dawson + , http://dbpedia.org/resource/Follow_This + , http://dbpedia.org/resource/DALL-E + , http://dbpedia.org/resource/You_%28Regard%2C_Troye_Sivan_and_Tate_McRae_song%29 + , http://dbpedia.org/resource/Imagery_of_nude_celebrities + , http://dbpedia.org/resource/Glim_Spanky + , http://dbpedia.org/resource/Miles_Fisher + , http://dbpedia.org/resource/Jordan_Harrod + , http://dbpedia.org/resource/Star_Wars:_SC_38_%E2%80%93_Reimagined + , http://dbpedia.org/resource/Area15 + , http://dbpedia.org/resource/Damian_Collins + , http://dbpedia.org/resource/AP_Stylebook + , http://dbpedia.org/resource/Information_laundering + , http://dbpedia.org/resource/Vovan_and_Lexus + , http://dbpedia.org/resource/Timeline_of_computing_2020%E2%80%93present + , http://dbpedia.org/resource/FaceApp + , http://dbpedia.org/resource/Artificial_intelligence + , http://dbpedia.org/resource/The_Capture_%28TV_series%29 + , http://dbpedia.org/resource/Debra_Stephenson + , http://dbpedia.org/resource/Algemeiner_Journal + , http://dbpedia.org/resource/Voyeurism_%28Offences%29_Act_2019 + , http://dbpedia.org/resource/Proof_of_personhood + , http://dbpedia.org/resource/Karen_Hao + , http://dbpedia.org/resource/Jake_Elwes + , http://dbpedia.org/resource/Facial_motion_capture + , http://dbpedia.org/resource/Vision_transformer + , http://dbpedia.org/resource/List_of_portmanteaus + , http://dbpedia.org/resource/Computer_facial_animation + , http://dbpedia.org/resource/Uncanny_valley + , http://dbpedia.org/resource/Fall_%282022_film%29 + , http://dbpedia.org/resource/Comparison_of_file_comparison_tools + , http://dbpedia.org/resource/Face_Swap_Live + , http://dbpedia.org/resource/Wombo + , http://dbpedia.org/resource/The_Champion_%282020_film%29 + , http://dbpedia.org/resource/Welcome_to_Chechnya + , http://dbpedia.org/resource/1999_%28Charli_XCX_and_Troye_Sivan_song%29 + , http://dbpedia.org/resource/War_on_Want + , http://dbpedia.org/resource/El_Chavo_del_Ocho + , http://dbpedia.org/resource/Fake_nude_photography + , http://dbpedia.org/resource/Bruno_Sartori + , http://dbpedia.org/resource/Sassy_Justice + , http://dbpedia.org/resource/Non-fungible_token + , http://dbpedia.org/resource/Digital_rhetoric + , http://dbpedia.org/resource/Video_Killed_the_Radio_Star + , http://dbpedia.org/resource/International_Risk_Governance_Center + , http://dbpedia.org/resource/Tom_Scott_%28presenter%29 + , http://dbpedia.org/resource/Disinformation_attack + , http://dbpedia.org/resource/Identity_replacement_technology + , http://dbpedia.org/resource/The_Lion_King_%282019_film%29 + , http://dbpedia.org/resource/Volodymyr_Zelenskyy + , http://dbpedia.org/resource/Sex_doll + , http://dbpedia.org/resource/Bella_Thorne + , http://dbpedia.org/resource/Video_manipulation + , http://dbpedia.org/resource/Deepfake_pornography + , http://dbpedia.org/resource/RepresentUs + , http://dbpedia.org/resource/Sexuality_in_South_Korea + , http://dbpedia.org/resource/Audio_deepfake + , http://dbpedia.org/resource/Photograph_manipulation + , http://dbpedia.org/resource/The_New_York_Times_Presents + , http://dbpedia.org/resource/Travessia + , http://dbpedia.org/resource/DeepFake + , http://dbpedia.org/resource/Deepfake_detection + , http://dbpedia.org/resource/Face_swapping + , http://dbpedia.org/resource/Cheap_fake + , http://dbpedia.org/resource/Dumbfake + , http://dbpedia.org/resource/Dumbfakes + , http://dbpedia.org/resource/Deep_fake + , http://dbpedia.org/resource/Deep_fakes + , http://dbpedia.org/resource/Deepfaking + http://dbpedia.org/ontology/wikiPageWikiLink
http://dbpedia.org/resource/Wombo + , http://dbpedia.org/resource/Bruno_Sartori + http://dbpedia.org/property/genre
http://en.wikipedia.org/wiki/Deepfake + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Deepfake + owl:sameAs
http://dbpedia.org/resource/Controversial_Reddit_communities + rdfs:seeAlso
 

 

Enter the name of the page to start semantic browsing from.