Deepfake- ները («խորը ուսուցում» և «կեղծ») սինթետիկ կրիչներ[1] են, որոնցում գոյություն ունեցող պատկերի կամ տեսանյութի անձը փոխարինվում է ուրիշի նմանությամբ։ Թեև <<Կեղծման>> գործողությունը նոր չէ, Deepfake-ները օգտագործում են բարդ մեթոդներ մեքենայական ուսուցման և արհեստական ինտելեկտի միջոցով՝ շահարկելու կամ ստեղծելու տեսողական և աուդիո բովանդակություն՝ իրական թվալու մեծ պոտենցիալով[2]: Դիփֆեյքեր ստեղծելու համար օգտագործվող մեքենայական ուսուցման հիմնական մեթոդները հիմնված են խորը ուսուցման վրա և ներառում են գեներատիվ նեյրոնային ցանցերի ճարտարապետության ուսուցում, ինչպիսիք են ավտոկոդավորիչները կամ գեներատիվ հակառակորդ ցանցերը (GANs)::[3][4]

Deepfake-ը մեծ ուշադրություն է գրավել կեղծ լուրեր, կեղծիքների և ֆինանսական խարդախությունների մեջ դրանց օգտագործումից հետո: Սա արձագանքներ է առաջացրել կառավարության կողմից հայտնաբերելու և սահմանափակելու դրանց օգտագործումը[5]

Դիփֆեյքի երկու օրինակ. թեև նրանք իրական մարդկանց պատկերներ են թվում, սակայն դեմքերը ստեղծվել են համակարգչով և այսպիսի մարդիկ գոյություն չունեն:

Պատմություն խմբագրել

Լուսանկարների մանիպուլյացիան մշակվել է 19-րդ դարում և շուտով կիրառվել է շարժապատկերների վրա: Տեխնոլոգիան անշեղորեն բարելավվել է 20-րդ դարում, և ավելի արագ՝ թվային տեսանյութերի միջոցով:

Deepfake տեխնոլոգիան մշակվել է ակադեմիական հաստատությունների հետազոտողների կողմից՝ սկսած 1990-ականներից, իսկ ավելի ուշ՝ առցանց համայնքների սիրողականների կողմից:

Ակադեմիական հետազոտություն խմբագրել

Դիփֆեյքերի հետ կապված ակադեմիական հետազոտությունները հիմնականում գտնվում են համակարգչային տեսողության ոլորտում, որը համակարգչային գիտության ենթաոլորտ է: Վաղ շրջադարձային նախագիծը եղել է Video Rewrite ծրագիրը, որը հրապարակվել է 1997 թվականին, այն փոփոխել է խոսող անձի առկա տեսագրությունը՝ պատկերելու համար, թե ինչպես է այդ անձը արտաբերում մեկ ուրիշ աուդիո ուղու մեջ պարունակվող բառերը[6]: Դա առաջին համակարգն էր, որն ամբողջությամբ ավտոմատացրեց դեմքի այս տեսակի վերակենդանացումը, և դա արեց՝ օգտագործելով մեքենայական ուսուցման տեխնիկան, որպեսզի կապեր հաստատի տեսահոլովակի առարկայի հնչյունների և մարդու բերանի շարժումների միջև։[6]

Ժամանակակից ակադեմիական նախագծերը կենտրոնացած են ավելի իրական թվացող տեսահոլովակների ստեղծման և տեխնիկայի բարելավման վրա[7][8]:«Սինթեզավորում Օբամային» ծրագիրը, որը հրապարակվել է 2017 թվականին, փոփոխում է նախկին նախագահ Բարաք Օբամայի տեսագրությունը՝ պատկերելու համար, թե ինչպես է նա արտաբերում առանձին աուդիո ուղու մեջ պարունակվող խոսքերը: Նախագիծը որպես հիմնական հետազոտական ​​ներդրում մատնանշում է իր ֆոտոռեալիստական ​​տեխնիկան՝ ձայնից բերանի շարժումները սինթեզելու համար: Face2Face ծրագիրը, որը հրապարակվել է 2016 թվականին, փոփոխում է մարդու դեմքի տեսագրությունը՝ պատկերելով նրանց, իրական ժամանակում, այլ անձի դեմքի արտահայտությունով ։ Նախագիծը որպես հիմնական հետազոտական ​​ներդրում մատնանշում է դեմքի արտահայտությունները իրական ժամանակում վերարտադրելու առաջին մեթոդը՝ օգտագործելով տեսախցիկը, որը չի ֆիքսում խորությունը, ինչը հնարավոր է դարձնում տեխնիկայի իրականացումը սովորական սպառողական տեսախցիկների միջոցով:[8]

2018 թվականի օգոստոսին Բերկլիի Կալիֆորնիայի համալսարանի հետազոտողները հրապարակեցին մի ծրագիր, որը ներկայացնում էր իրենից <<կեղծ պարային>> հավելված, որը կարող է ստեղծել վարպետորեն պարելու ունակության տպավորություն՝ օգտագործելով արհեստական բանականություն:[9][10] Այս նախագիծը ընդլայնեց deepfake-երի կիրառումը մարդու ամբողջ մարմնի վրա. նախորդ աշխատանքները կենտրոնացած էին գլխի կամ դեմքի վրա:[9]

Ընդհանուր առմամբ, ակնկալվում է, որ deepfake-ը ազդեցություն կունենա լրատվամիջոցների և հասարակության, մեդիա արտադրության, լրատվամիջոցների ներկայացուցչությունների, կանոնակարգերի և քաղաքականության վրա:

Սիրողական զարգացում խմբագրել

Deepfake տերմինը առաջացել է մոտ 2017 թվականի վերջին Reddit-ի «deepfakes» անունով օգտատերից։ Նա, ինչպես նաև Reddit համայնքի այլ անդամները, r/deepfakes, կիսվել են իրենց ստեղծած deepfake-երով.

Առևտրային զարգացում խմբագրել

2018 թվականի հունվարին գործարկվեց ֆիրմային desktop հավելված, որը կոչվում էր FakeApp։[11] Այս հավելվածը թույլ է տալիս օգտատերերին հեշտությամբ ստեղծել և կիսվել տեսանյութերով՝ միմյանց հետ փոխած դեմքերով։[12] 2019 թվականի դրությամբ FakeApp-ը փոխարինվել է բաց կոդով այլընտրանքներով, ինչպիսիք են Faceswap-ը, DeepFaceLab-ը և վեբ հիմնված հավելվածները, ինչպիսիք են DeepfakesWeb.com-ը[13][14][15]

Խոշոր ընկերությունները նույնպես սկսում են օգտագործել deepfake: Բջջային հավելվածների հսկա Momo-ն ստեղծեց Zao հավելվածը, որը թույլ է տալիս օգտվողներին իրենց դեմքը տեղադրել հեռուստատեսային և ֆիլմերի տեսահոլովակների վրա:

Մեթոդներ խմբագրել

 
Այս օրինակում Deepfake տեխնոլոգիան օգտագործվում է դեմքի ձևավորում ստեղծելու համար։

Deepfake-ը հիմնված է մի տեսակի նեյրոնային ցանցերի վրա, որոնք կոչվում են autoencoder:[16] Դրանք բաղկացած են կոդավորիչից, որը պատկերը նվազեցնում է ավելի ցածր ծավալի, և ապակոդավորիչից, որը վերակառուցում է պատկերը թաքնված ներկայացումից: Deepfake-ը օգտագործում է այս ճարտարապետությունը՝ ունենալով ունիվերսալ կոդավորիչ, որը կոդավորում է մարդուն թաքնված տարածության մեջ[17]: Թաքնված ներկայացումը պարունակում է հիմնական հատկանիշները դեմքի հատկությունների և մարմնի կեցվածքի վերաբերյալ: Այն կարող է այնուհետև վերծանվել թիրախի համար հատուկ պատրաստված մոդելի միջոցով:[5] Սա նշանակում է, որ թիրախի մանրամասն տեղեկատվությունը կտեղադրվի բնօրինակ տեսանյութի դեմքի և մարմնի հիմքում ընկած հատկանիշների վրա, որոնք ներկայացված են թաքնված տարածության մեջ:

Օգտագործում խմբագրել

Արվեստ խմբագրել

2018 թվականի մարտին բազմամասնագիտական նկարիչ Ջոզեֆ Այերլը հրապարակեց Un'emozione per semper 2.0 (անգլերեն անվանումը՝ The Italian Game(Իտալական խաղ)) տեսաարվեստը։ Նկարիչը օգտագործել է Deepfake տեխնոլոգիան՝ ստեղծելու արհեստական ինտելեկտի դերասանուհի՝ 80-ականների կինոաստղ Օռնելլա Մուտիի սինթետիկ տարբերակը, որը ճանապարհորդում է ժամանակի մեջ 1978-ից մինչև 2018 թվականը: Մասաչուսեթսի տեխնոլոգիական ինստիտուտն անդրադարձել է այս արվեստի գործին «Creative Wisdom»[18] ուսումնասիրության մեջ։ Տեխնիկական իրականացման համար Այերլին օգտագործել է ֆոտոմոդել Քենդալ Ջեների տեսարանները։ Ծրագիրը Ջեների դեմքը փոխարինեց Օռնելլա Մուտիի արհեստական ինտելեկտով հաշվարկված դեմքով: Արդյունքում՝ արհեստական ինտելեկտի դերասանուհին ունի իտալացի դերասանուհի Օռնելլա Մուտիի դեմքը և Քենդալ Ջեների մարմինը։

Քաղաքականություն խմբագրել

Deepfake-ը օգտագործվել է հայտնի քաղաքական գործիչներին տեսանյութերում խեղաթյուրելու համար:

  • Առանձին տեսանյութերում Արգենտինայի նախագահ Մաուրիսիո Մակրիի դեմքը փոխարինվել է Ադոլֆ Հիտլերի դեմքով, իսկ Անգելա Մերկելի դեմքը փոխարինվել է Դոնալդ Թրամփի դեմքով [19] :
    Deepfake տեսանյութ. Վլադիմիր Պուտինը զգուշացնում է ամերիկացիներին ընտրություններին միջամտելու և քաղաքական պառակտման աճի մասին
    2018 թվականի ապրիլին Ջորդան Փիլը համագործակցելով Buzzfeed-ի հետ՝ Փիլի ձայնով Բարաք Օբամայի մասին deepfake ստեղծելու համար. այն ծառայել է որպես հանրային ծառայության հայտարարություն՝ deepfake-երի մասին տեղեկացվածությունը բարձրացնելու համար:[20]
  • 2020 թվականի ապրիլին Extinction Rebellion-ի բելգիական մասնաճյուղը Facebook-ում հրապարակեց Բելգիայի վարչապետ Սոֆի Վիլմեսի deepfake տեսանյութը։ Տեսանյութում խոսվում էր անտառահատումների և COVID-19-ի միջև հնարավոր կապի մասին։ Այն 24 ժամվա ընթացքում ունեցել է ավելի քան 100000 դիտում և ստացել բազմաթիվ մեկնաբանություններ։
  • 2019 թվականի հունիսին Միացյալ Նահանգների Կոնգրեսի Ներկայացուցիչների պալատի հետախուզության հանձնաժողովը լսումներ է անցկացրել ընտրությունները ազդելու համար deepfake-երի հնարավոր չարամիտ օգտագործման վերաբերյալ[21]:

Սոցիալական ցանցեր խմբագրել

Deepfake-ը սկսել է օգտագործվել հանրահայտ սոցիալական մեդիա հարթակներում, մասնավորապես Zao-ի միջոցով՝ չինական հավելվածի միջոցով, որը թույլ է տալիս օգտատերերին փոխարինել իրենց դեմքերը ֆիլմերի և հեռուստատեսային շոուների հերոսների դեմքերով, ինչպիսիք են Romeo + Juliet-ը և Game of Thrones-ի հերոսները: [22]Հավելվածն ի սկզբանե ենթարկվել է հսկողության՝ կապված օգտատերերի տվյալների և գաղտնիության քաղաքականության հետ, որից հետո ընկերությունը հայտարարություն է տարածել՝ պնդելով, որ կվերանայի քաղաքականությունը:[23] 2020 թվականի հունվարին Facebook-ը հայտարարեց, որ իր հարթակներում նոր միջոցներ է ներդնում օգտատերերի տվյալների ապահովությունը երաշխավորելու համար։[24]

Ֆիլմեր խմբագրել

Ենթադրություններ են եղել այն մասին, որ դիփֆեյքերն օգտագործվելու են ապագա ֆիլմերի համար թվային դերասաններ ստեղծելու համար: Թվային ձևով կառուցված/փոփոխված մարդիկ նախկինում արդեն օգտագործվել են ֆիլմերում, և խորը կեղծիքները կարող են մոտ ապագայում նոր զարգացումների նպաստել [25]: Deepfake տեխնոլոգիան արդեն օգտագործվել է երկրպագուների կողմից՝ գոյություն ունեցող ֆիլմերում դեմքեր ավելացնելու կամ փոխարինելու համար, ինչպես օրինակ՝ Հարիսոն Ֆորդի երիտասարդ դեմքը Հան Սոլոյի դեմքին տեղադրելը Solo: A Star Wars Story-ում [26]։

Շանտաժ խմբագրել

Deepfake-ը կարող է օգտագործվել շանտաժի նյութեր ստեղծելու համար, որոնք կեղծ մեղադրանք են ներկայացնում զոհին: Այնուամենայնիվ, քանի որ կեղծիքները չեն կարող արժանահավատորեն տարբերվել իսկական նյութերից, շանտաժի զոհերն կարող են պնդել, որ տեսանյութերը կամ նկարները կեղծ են՝ հերքելով դրանց արժանահավատությունը:

Մտահոգություններ խմբագրել

Խարդախություն խմբագրել

«Կիմ Չեն Ըն»

Աուդիո կեղծիքները օգտագործվել են որպես սոցիալական ճարտարագիտության խարդախությունների մաս՝ մարդկանց խաբկանքով ստիպելով մտածել, որ նրանք հրահանգներ են ստանում վստահելի անհատից [27] : 2019 թվականին բրիտանական էներգետիկ ընկերության գործադիր տնօրենին խաբել են հեռախոսով, նրան հրամայելով 220,000 եվրո փոխանցել հունգարական բանկային հաշվին, մի անհատի կողմից, ով աուդիո deepfake տեխնոլոգիան օգտագործել է ընկերության մայր ընկերության գործադիր տնօրենի ձայնը նմանակելու համար [28]։

Վավերականություն խմբագրել

Թեև կեղծ լուսանկարները վաղուց շատ են եղել, տեսանյութերը կեղծել ավելի դժվար է եղել, և խորը ֆեյքերի առկայությունը մեծացնում է տեսանյութերը որպես իրական կամ ոչ իրական դասակարգելու դժվարությունը:[19]Արհեստական բանականությունը հետազոտող Ալեքս Չամպանդարդն ասում է, որ մարդիկ պետք է իմանան, թե ինչ արագությամբ կարելի է ինչ որ բանի ռեպուտացիան կործանել deepfake տեխնոլոգիայի միջոցով, և որ խնդիրը տեխնոլոգիայի մեջ չէ, այլ տեղեկատվության և լրագրության հանդեպ մարդկանց ունեցած վստահության մեջ : Deepfake-ը կարող է օգտագործվել զրպարտելու և ապատեղեկատվություն տարածելու համար:[29] Առաջնային որոգայթն այն է, որ կարող է գալ ժամանկ, երբ այլևս հնարավոր չի լինի որոշել, թե արդյոք լրատվամիջոցի բովանդակությունը համապատասխանում է ճշմարտությանը:

Ծանոթագրություններ խմբագրել

  1. WITNESS Media Lab | Prepare, Don't Panic: Synthetic Media and Deepfakes - WITNESS Media Lab
  2. Kietzmann Jan, Lee Linda W., McCarthy Ian P., Kietzmann Tim C. (2020-03-01)։ «Deepfakes: Trick or treat?»։ Business Horizons։ ARTIFICIAL INTELLIGENCE AND MACHINE LEARNING (անգլերեն) 63 (2): 135–146։ ISSN 0007-6813։ doi:10.1016/j.bushor.2019.11.006
  1. «Prepare, Don't Panic: Synthetic Media and Deepfakes». WITNESS Media Lab (ամերիկյան անգլերեն). Վերցված է 2021-11-16-ին.
  2. Kietzmann, Jan; Lee, Linda W.; McCarthy, Ian P.; Kietzmann, Tim C. (2020-03-01). «Deepfakes: Trick or treat?». Business Horizons. ARTIFICIAL INTELLIGENCE AND MACHINE LEARNING (անգլերեն). 63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006. ISSN 0007-6813.
  3. «You thought fake news was bad? Deep fakes are where truth goes to die». the Guardian (անգլերեն). 2018-11-12. Վերցված է 2021-11-16-ին.
  4. PhD, Sven Charleer (2019-05-17). «Family fun with deepfakes. Or how I got my wife onto the Tonight Show». Medium (անգլերեն). Վերցված է 2021-11-16-ին.
  5. Clarke, Yvette D. (2019-06-28). «H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019». www.congress.gov. Վերցված է 2021-11-16-ին.
  6. 6,0 6,1 Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997-08-03). «Video Rewrite: driving visual speech with audio». Proceedings of the 24th annual conference on Computer graphics and interactive techniques. SIGGRAPH '97. USA: ACM Press/Addison-Wesley Publishing Co.: 353–360. doi:10.1145/258734.258880. ISBN 978-0-89791-896-1.
  7. Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (2017-07-20). «Synthesizing Obama: learning lip sync from audio». ACM Transactions on Graphics. 36 (4): 95:1–95:13. doi:10.1145/3072959.3073640. ISSN 0730-0301.
  8. 8,0 8,1 Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, Christian; Nießner, Matthias (2016-06). «Face2Face: Real-Time Face Capture and Reenactment of RGB Videos». 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR): 2387–2395. doi:10.1109/CVPR.2016.262.
  9. 9,0 9,1 «An AI program will soon be here to help your deepfake dancing - just don't call it deepfake». Business Insider Australia (ավստրալիական անգլերեն). 2018-08-27. Վերցված է 2021-11-16-ին.
  10. Vincent, James (2018-08-26). «Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted». The Verge (անգլերեն). Վերցված է 2021-11-16-ին.
  11. «What is a Deepfake and How Are They Made?». Online Tech Tips (ամերիկյան անգլերեն). 2019-05-23. Վերցված է 2021-11-16-ին.
  12. Robertson, Adi (2018-02-11). «I'm using AI to face-swap Elon Musk and Jeff Bezos, and I'm really bad at it». The Verge (անգլերեն). Վերցված է 2021-11-16-ին.
  13. «Make Your Own Deepfakes [Online App]». Deepfakes Web. Վերցված է 2021-11-16-ին.
  14. «Welcome». Faceswap (ամերիկյան անգլերեն). Վերցված է 2021-11-16-ին.
  15. iperov (2021-11-16), DeepFaceLab, Վերցված է 2021-11-16-ին
  16. Zucconi, Alan (2018-03-14). «Understanding the Technology Behind DeepFakes». Alan Zucconi (ամերիկյան անգլերեն). Վերցված է 2021-11-16-ին.
  17. Kan, Enoch (2018-12-10). «What The Heck Are VAE-GANs?». Medium (անգլերեն). Վերցված է 2021-11-16-ին.
  18. «PART 6: MEDIA CO-CREATION WITH NON-HUMAN SYSTEMS · Works in Progress». web.archive.org. 2020-03-04. Վերցված է 2021-11-16-ին.
  19. 19,0 19,1 Bezmalinovic, Tomislav. ««Deepfakes» - Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos». Aargauer Zeitung (գերմաներեն). Վերցված է 2021-11-16-ին.
  20. Romano, Aja (2018-04-18). «Jordan Peele's simulated Obama PSA is a double-edged warning against fake news». Vox (անգլերեն). Վերցված է 2021-11-16-ին.
  21. CNN, Donie O'Sullivan. «Congress to investigate deepfakes as doctored Pelosi video causes stir». CNN. Վերցված է 2021-11-16-ին. {{cite web}}: |last= has generic name (օգնություն)
  22. Damiani, Jesse. «Chinese Deepfake App Zao Goes Viral, Faces Immediate Criticism Over User Data And Security Policy». Forbes (անգլերեն). Վերցված է 2021-11-16-ին.
  23. Porter, Jon (2019-09-02). «Another convincing deepfake app goes viral prompting immediate privacy backlash». The Verge (անգլերեն). Վերցված է 2021-11-16-ին.
  24. «Ahead of Irish and US elections, Facebook announces new measures against 'deepfake' videos». independent (անգլերեն). Վերցված է 2021-11-16-ին.
  25. Kemp, Luke (2019-07-08). «In the age of deepfakes, could virtual actors put humans out of business?». the Guardian (անգլերեն). Վերցված է 2021-11-16-ին.
  26. Radulovic, Petrana (2018-10-17). «Harrison Ford is the star of Solo: A Star Wars Story thanks to deepfake technology». Polygon (ամերիկյան անգլերեն). Վերցված է 2021-11-16-ին.
  27. Statt, Nick (2019-09-05). «Thieves are now using AI deepfakes to trick companies into sending them money». The Verge (անգլերեն). Վերցված է 2021-11-16-ին.
  28. Damiani, Jesse. «A Voice Deepfake Was Used To Scam A CEO Out Of $243,000». Forbes (անգլերեն). Վերցված է 2021-11-16-ին.
  29. «Weaponised deep fakes: National security and democracy on JSTOR». www.jstor.org (անգլերեն). Վերցված է 2021-11-16-ին.