現在お使いのブラウザはHTML5に対応していないため、JScriptを使用していくつかの要素がきちんと見えるように実現しました。 しかし、残念ながらあなたのブラウザではスクリプト機能がオフになっています。このページを正しく表示するためには、スクリプト機能をオンにしてください。
#Tech
Deepfakes
Potential consequences of deep fake technology
Updated: 2021.09.09
4 min read · Intermediate
Deepfakes

It was around November 2020. At the top of the hour, MBN’s anchor Joo-Ha Kim started going through the day’s headlines. On the screen was, in fact, a deepfake version of herself. MBN had created an AI copy of a human news anchor by feeding ten hours of Kim’s video into its deep learning algorithm. The AI news anchor could replicate nuances of Joo-Ha’s voice and facial expressions. MBN reported its plans to use this AI system for future breaking news reports, inciting mixed responses from the public.

Deepfake technology creates images or videos of fake events or people. Usually, deepfake refers to a video wherein a person is replaced with someone else’s likeness. The process of making a deepfake video is quite tedious [1]. Two AI algorithms, a decoder and an encoder, process a person’s images to replicate them. High graphics performance and processing power can reduce the time a computer takes to create deepfakes. Initially used in the adult industry and social media pranks, the technology has slipped into photorealism from the uncanny valley*. In other words, mediocre AI copies of human appearance make us uneasy, but deepfakes have become indistinguishable from authentic videos to the naked eye.

*On the spectrum of human likeness, the uncanny valley refers to the range wherein an image resembles a human but looks fake. Examples are mannequins and humanoid robots in sci-fi movies from the ‘90s.

This technology has had a positive impact on our society: imitating the voices of people who lost it to diseases; improving the quality of older films; reviving dead actors and actresses for new movies; presenting artworks on display in a more engaging manner by digitally having the creator in the exhibition.

But despite these benefits, no one has a monopoly over deepfakes. In other words, the same technology could be misused to cause alarming consequences. This warning rings true when it has become widely accessible on the internet. For example, some have created fake pornographies by placing the faces of celebrities onto already existing videos. These videos can have a detrimental impact on their public image. Another concern is fabricated videos of political authorities spreading false information to the public. These videos may incite [2] panic or public backlash [3] against these figures. In our private lives, scammers might use deepfakes to mimic a trusted individual to take our money.

Deepfake technology deserves appreciation for how advanced it is. However, despite its harmless roots, it can cause harm to public figures and blur the line between what is real and fake, especially since an average person doesn’t have the tool to detect deepfakes. Given these issues that AI presents, many argue that one of the ways to solve this is to develop higher-quality AI that is trained to identify real videos.

딥페이크 기술

2020년 11월 경의 일입니다. 정시가 되자 MBN 뉴스앵커 김주하씨가 그날의 주요 뉴스를 보도하기 시작했습니다. 그러나 사실상 화면에 나온 것은 김주하씨의 딥페이크 버전이었습니다. MBN이 딥러닝 알고리즘에 김주하 앵커의 비디오를 10시간 동안 주입하여 그의 인공지능 복사판을 만들어낸 것입니다. 이 인공지능 뉴스앵커는 김주하 앵커의 목소리와 표정의 미묘한 차이까지 그대로 재현할 수 있습니다. MBN은 앞으로 뉴스 속보에 인공지능 시스템을 활용할 계획이라고 밝혔는데 이에 대해 대중들은 엇갈린 반응을 보이고 있습니다.

딥페이크 기술은 사건이나 사람의 가짜 이미지나 영상을 만들어냅니다. 대개 딥페이크는 어떤 사람을 그와 비슷한 다른 사람으로 대체한 영상을 말합니다. 딥페이크 비디오를 만드는 과정은 길고 지루합니다. 디코더(복호기)와 인코더(부호기)라는 두 가지 인공지능 알고리듬이 사람의 이미지를 처리하여 그를 복제합니다. 고성능 그래픽 기술과 처리 능력은 컴퓨터가 딥페이크를 만들어내는 데 드는 시간을 줄일 수 있습니다. 초기에는 성인산업이나 사회관계망 상의 장난이나 속임수 따위에 주로 사용되던 이 기술은 점차 “불쾌한 골짜기*”를 벗어나 포토리얼리즘 영역으로 들어섰습니다. 다시 말해 예전에 인공지능이 어설프게 복제한 인간의 외형이 우리를 불편하게 만들었지만 현재의 딥페이크는 육안으로는 실제 이미지와 구분하기 힘들 정도가 되었습니다.

* “불쾌한 골짜기”란 사람과 닮은 정도와 그에 대한 사람의 반응 간의 관계를 나타내는 그래프에서 사람을 닮았으나 가짜처럼 보이는 것을 보면 불안감이나 혐오감과 같은 부정적 반응이 커지는 지점, 즉 그래프의 곡선이 아래로 급격히 낮아지는 지점을 일컫는 말입니다. 마네킹이나 90년대 공상과학 영화 속 인간의 형상을 한 로봇 등이 그 예입니다.

딥페이크 기술은 우리 사회에 긍정적인 영향을 미쳐왔습니다. 질병으로 인하여 목소리를 잃은 사람들의 목소리를 모사한다거나, 옛날 영화의 질을 향상시킨다거나, 이미 죽은 배우들을 살려내 신작 영화에 출연시킨다거나 혹은 미술작품 전시회에 디지털 이미지의 형태로 작가를 참석시켜 관객의 호응도를 높이는 것 등이 좋은 예입니다.

그러나 이러한 장점에도 불구하고 이 기술은 잘못 사용되어서 걱정스런 결과를 초래할 수 있습니다. 이러한 우려는 딥페이크가 인터넷에서 널리 사용 가능하게 되었을 때 현실화되었습니다. 예를 들어 어떤 사람들은 기존의 포르노 영상에 유명인의 얼굴을 합성하여 가짜 영상을 만들기도 하였습니다. 이 영상물들은 그들의 이미지에 심각한 타격을 미칠 수 있습니다. 또 다른 우려사항은 정치인사들의 얼굴이 합성된 영상물로 대중에게 잘못된 정보를 퍼뜨리는 것입니다. 이러한 영상물은 사회적 불안이나 해당 정치인들에 대한 반발을 야기할 수 있습니다. 개인적 차원에서는 사기꾼들이 딥페이크 기술로 우리가 믿는 사람의 가짜 이미지를 만들어 돈을 갈취할 목적으로 이용할 수도 있습니다.

딥페이크 기술은 그 놀라운 발전 정도를 고려할 때 높이 평가받을 만합니다. 그러나 시작은 전혀 무해했음에도 불구하고 이 딥페이크 기술은 공인들에게 피해를 주고 사실과 거짓의 경계를 모호하게 만들 수 있습니다. 특히 일반인들은 가짜 이미지를 감별해낼 방법이 없기 때문입니다. 인공지능 기술이 가지는 이러한 문제점을 해결하기 위한 방안의 하나로, 많은 이들은 진짜 영상물을 감별해낼 수 있도록 훈련된 더 뛰어난 인공지능기술을 개발하자고 주장합니다.

Discussion Questions
Q1
In your own words, please briefly summarize the article.
Q2
What is AI technology? What are some of its uses nowadays?
Q3
Have you ever heard of deep fake technology before?
Q4
Reflecting on the moral qualms surrounding deep fake technology, do you think monetizing deep fake videos is justifiable?
Q5
Discuss the use of deep fakes to imitate Kim Joo-Ha. From a business perspective, is this a smart choice? Why or why not?
Q6
What are the pros and cons of deep fake technology?
Q7
Should we keep deep fake technology, what regulations would we need?
Q8
One solution put forth by the public is to develop AI technology trained to spot deep fakes. What is your opinion on that?
Q9
If you have a question or questions that you'd like to discuss during your class, please write them down.
Expressions
tedious
to require close attention to detail
例文
1

The homework for tonight is so tedious that I almost fell asleep doing it.

例文
2

Following directions to your house was tedious.

incite
to encourage or to move people to action
例文
1

The murder of the town’s beloved dog incited its citizens to rebellion.

例文
2

His friends incited him to commit the robbery.

backlash
to have a bad reaction from your audience
例文
1

Her views on racism received backlash from the crowd.

例文
2

When the president announced that he would be cutting the park’s budget, he received backlash.

본 교재는 당사 편집진이 제작하는 링글의 자산으로 저작권법에 의해 보호됩니다. 링글 플랫폼 외에서 자료를 활용하시는 경우 당사와 사전 협의가 필요합니다.

It was around November 2020. At the top of the hour, MBN’s anchor Joo-Ha Kim started going through the day’s headlines. On the screen was, in fact, a deepfake version of herself. MBN had created an AI copy of a human news anchor by feeding ten hours of Kim’s video into its deep learning algorithm. The AI news anchor could replicate nuances of Joo-Ha’s voice and facial expressions. MBN reported its plans to use this AI system for future breaking news reports, inciting mixed responses from the public.

Deepfake technology creates images or videos of fake events or people. Usually, deepfake refers to a video wherein a person is replaced with someone else’s likeness. The process of making a deepfake video is quite tedious [1]. Two AI algorithms, a decoder and an encoder, process a person’s images to replicate them. High graphics performance and processing power can reduce the time a computer takes to create deepfakes. Initially used in the adult industry and social media pranks, the technology has slipped into photorealism from the uncanny valley*. In other words, mediocre AI copies of human appearance make us uneasy, but deepfakes have become indistinguishable from authentic videos to the naked eye.

*On the spectrum of human likeness, the uncanny valley refers to the range wherein an image resembles a human but looks fake. Examples are mannequins and humanoid robots in sci-fi movies from the ‘90s.

This technology has had a positive impact on our society: imitating the voices of people who lost it to diseases; improving the quality of older films; reviving dead actors and actresses for new movies; presenting artworks on display in a more engaging manner by digitally having the creator in the exhibition.

But despite these benefits, no one has a monopoly over deepfakes. In other words, the same technology could be misused to cause alarming consequences. This warning rings true when it has become widely accessible on the internet. For example, some have created fake pornographies by placing the faces of celebrities onto already existing videos. These videos can have a detrimental impact on their public image. Another concern is fabricated videos of political authorities spreading false information to the public. These videos may incite [2] panic or public backlash [3] against these figures. In our private lives, scammers might use deepfakes to mimic a trusted individual to take our money.

Deepfake technology deserves appreciation for how advanced it is. However, despite its harmless roots, it can cause harm to public figures and blur the line between what is real and fake, especially since an average person doesn’t have the tool to detect deepfakes. Given these issues that AI presents, many argue that one of the ways to solve this is to develop higher-quality AI that is trained to identify real videos.

*本教材は、Ringleを使用して英語を学ぶ学習者向けに設計されています。