ディープフェイク 作成。 ディープフェイク動画(AI合成動画)の作り方、簡単スマホアプリ、PCソフトは? あなたも狙われる、フェイク動画の恐怖!

ディープフェイクはジャーナリズムに何をもたらすのかーーWSJの取り組み

ディープフェイク 作成

映像編集技術や画像編集技術の進歩により、誰もが簡単に映像や画像を編集・加工できるようになった。 もはや映像も画像も「現実に起こった出来事」を正確に写し取った証拠だとは無邪気には考えられないものになりつつある。 特に昨年末に登場したフェイクポルノ、そしてそれを可能にしたディープフェイクという技術は社会に衝撃をもたらした。 ディープフェイクに限らず、高度な映像・画像編集技術は、今後ますます広く、そして容易に利用されることになる。 そして現実と虚構との区別がますます難しくなっていく。 当然のことながら、その技術が悪用されることもあるだろう。 しかし、為す術がないわけではない。 すでにする動きが見られているし、、映像や画像のフェイクに備えている。 いつもとは毛色の違うお話ではあるが、NiemanLabに掲載されたウォール・ストリート・ジャーナルの研究開発チームのチーフ、フランセスコ・マルコーニの記事が面白かったので紹介したい。 何の備えもなく大問題を引き起こし、反射的、短絡的に規制を叫ばずにすむように。 私たちは深層学習(deep learning)技術の急速な発展を目の当たりにしてきた。 その発展はこれからも続くのか。 それともこれで頭打ちなのか。 これから一体何が起こるのか。 人工知能は、虚偽情報を次のフェーズに押し上げようとしている。 報道機関はいま、ディープフェイク(Deepfake)と呼ばれる新たな合成技術の検証という難題を抱えている。 この種のコンテンツの判別は極めて難しい。 以下の画像のどちらがフェイクか区別できるだろうか。 (答えは本稿末尾にて) 我々ウォール・ストリート・ジャーナルは、ディープフェイクを深刻な脅威と捉え、社内に報道倫理および研究開発チームが主導するタスクフォース「WSJメディアフォレンジック委員会」を立ち上げた。 この組織は、ディープフェイク検出のトレーニングを受けたビデオ、写真、ビジュアル、リサーチ、プラットフォーム、ニュース編集の担当者から構成されている。 これを中核として、記者を対象としたトレーニングセミナーの実施、ニュースルーム向けのガイドの制作、更にテクノロジーを駆使した対処法を模索するためにコーネル・テックを始めとする学術機関との連携を進めている。 「最新テクノロジーに関するニュースルームの意識向上が極めて重要です」とフォレンジック委員会を主導する報道倫理チームの副編集長は言う。 「未来のディープフェイクがどこに現れるかはわからない。 だからこそ、私たちは虚偽情報に目を光らせていなくてはならないのです」 本稿では、ジャーナリストに向けて、ディープフェイクについて我々が得た知見、そして我々が行っている実践について紹介したい。 ディープフェイクはどのように作成されているのか 多くのディープフェイクは、(Generative Adversarial Network/GAN)という機械学習技術によって作成されている。 このアプローチにより、政治家と俳優の顔をすげ替えるようなフェイク映像を作成することができる。 このアルゴリズムは、両者の見せる表情や顔の部位に関するインスタンスを探索し、その背後で、人工知能アルゴリズムが2つの顔を並置する最良のマッチングを見出そうとする。 GANを始めとする機械学習研究は広く公開されており、ディープフェイク作成のノウハウは広く拡散している。 ちょっとした技術的知識とそこそこの性能を持ったグラフィックカードがあれば、オープンソースソフトウェアを使用して誰にでもディープフェイクが生成できてしまうのである。 ニューヨーク大学などの学術機関は、メディアリテラシーにユニークなアプローチを取り入れている。 たとえばNYU TischのInteractive Telecommunications Program(ITP)の「Faking the News」という授業では、AIを駆使してコンテンツを捏造する方法を教えることで、ディープフェイクの危険性を学生に身をもって学ぶ機会を提供している。 ダウ・ジョーンズのプロダクトマネージャーで、NYUの学生でもあるは「この技術を学ぶことで、その潜在的な危険性と共に、その限界を理解することができます」と話す。 ディープフェイク作成に用いられるテクニック ディープフェイクの作成者は、さまざまなテクニックを駆使している。 その一部を紹介しよう。 フェイススワップ(顔の入れ替え):アルゴリズムは、ある人物の顔を別の人物のビデオに。 このテクニックは、ある人物の顔を別の人物の体にはめ込み、実際にはいなかった場所にその人物をいたことにできる。 リップシンク(唇の同期):捏造者は、ある人物の顔を音声に合わせてことができる。 映像と新たな音声とを組み合わせれば、実際に発言していないことをあたかも発言したかのような映像を作り出せる。 表情再現:捏造者は、人物の別の映像を使って、そのができる。 このテクニックを使えば、映像中の人物の表情を変えることができ、あたかも苛ついたり、怒ったり、驚いているかのような映像を作り出せる。 モーション・トランスファー(身振りの移植):ソースビデオに映し出された身体の動作を、手法もある。 たとえば、ダンサーの動作をキャプチャし、ターゲットの人物を同じように動かすことができる。 WSJ特派員のジェイソン・ベリーニは、カリフォルニア大学バークレー校の研究者の協力を得て、を披露してくれた。 ジャーナリストは、人工知能技術の危険性と課題を報道する重要な役割を担っている。 これらの問題に関する報道は、一般市民の意識を高め、問題の理解を促進するのに必要不可欠だ。 From The Wall Street Journal, October 15, 2018. どうやってディープフェイクを検出するか 我々は、捏造されたメディアを検出し、阻止するためのソリューションやツールの開発に取り組んでいる。 報道機関は業界をあげて、改ざんが疑われるメディア検証のためのさまざまなアプローチをとることができるだろう。 「1フレームごとに不自然な形状や要素の追加を検出したり、リバース・イメージ検索を実行して精査するといった、映像の改ざんをチェックする技術があります」とWSJのシニアビデオジャーナリストのは言う。 しかし、最も効果的なのは伝統的な報道手法であるとも話す。 「情報源や対象に直接コンタクトして、編集的な判断を下すということです」 情報源を調査する 何者かが怪しい映像を流している場合、まずはその情報源を辿ることが推奨される。 その人物は映像をどうやって手に入れたのか? 映像はどこで撮影されたものか? できるだけ多くの情報を入手し、その主張の裏付けを尋ね、実際に検証することが重要である。 もしビデオがインターネット上に投稿されたもので、そのアップローダーが不明な場合には、別の疑問を明らかにするといいだろう。 映像を撮影した人物は誰だろうか? 誰がそれを公開し、誰と共有しているか? などのを使用し、動画や画像のメタデータを確認すれば、その答えにたどり着けることもある。 我々はこうした内部プロセスに加え、StoryfulやAP通信などのコンテンツ検証機関とも連携している。 目まぐるしく変化する環境では、このようなソリューションが必ず登場する。 たとえば、やなどの新しいツールは、ブロックチェーンを利用して写真を検証している。 しかし、どのような技術が使用されるにせよ、ニュースルームの人間がプロセスの中心にいることに変わりはない。 「テクノロジーだけでは、問題は解決できません」とWSJのCTOは言う。 「ディープフェイクに対抗するための方法は、人工知能ツールを扱える人間を増やすことです」 元映像を探す ディープフェイクはしばしば、インターネット上の映像を元に作られている。 やなどのリバース・イメージ検索エンジンは、元映像を発見し、それが操作されたものであるかどうかを確認するのに役立つ。 映像を精査する Final Cutなどの編集プログラムを使って、再生速度を遅くしたり、映像をズームしたり、1フレームごとに見たり、何度でも一時停止することで、不自然さ(訳註:glitches)を発見できるかもしれない。 口や顔周辺のかすみやぼやけ、不自然な照明やぎこちない動き、肌の色合いの違いはディープフェイクを疑わせるものだ。 実際に、その不自然さを見てみることにしよう。 WSJのフォレンジックチームが、Buzzfeedが作成したを使ってトレーニングを実施した際に見つかったものだ。 不自然な顎の動きや首の伸びは、映像が改ざんされていることを示す。 顔以外にも、映像の前景や背景に改ざんが加えられていることがある。 ある対象(たとえば武器やシンボル、人物など)を映像に挿入したり、映像から削除することで、ビデオの文脈を変えることができるためだ。 その際も、かすみやぼやけ、不自然な陰影はフェイク映像の指標となる。 音声の場合は、不自然なイントネーションや不規則な呼吸、金属的な響き、明らかな編集に注目すべきだ。 いずれも音声が人工知能によって生成されたことを示すヒントになる。 ただし、映像の歪みや不自然さは、ビデオ圧縮によっても発生することがあるという点には注意してほしい。 それゆえ、ビデオが改ざんされたものかどうかを決定的に判断することが難しい場合もある。 ディープフェイクの民主化が課題に 多くの企業が、(しばしば悪意なく)ディープフェイクの作成に用いられうるテクノロジーを開発している。 その一例を以下に挙げる。 オブジェクト抽出 Adobeは映像内のオブジェクトを削除する実験的ツール「」を開発している。 これを使えば、人物やその他のオブジェクトを映像から簡単に削除することができるようになるだろう。 この製品は映像編集に役立つものの、からは、(映像内のごく一部分を削除するような)こうしたマイクロ編集は検出が難しく、あからさまなフェイクよりも危険性が高いとの指摘もある。 天候の変更 画像変換のアルゴリズムには、映像内の天気や時間帯を変更できるものがある。 その一例として、が敵対的生成ネットワークを用いて開発したものがある。 こうしたアルゴリズムは、映画のポストプロダクションで撮影シーンの天候や時間帯を変更するのに役立つだろう。 しかしこの技術は、ビデオを検証し、撮影時期を絞り込むために時刻や天気、太陽の位置などを手がかりにするニュースルームにとっては厄介な存在になるかもしれない。 AdobeもNvidiaもコメントを拒否した。 合成音声 音声ファイルも操作可能だ。 という企業は、実際の人間のオーディオ・サンプルに基づいて、人工音声を生成している。 どれほどの長文であっても、1分程度の音声サンプルで十分だという。 こうした技術は、たとえばゲーム開発者がキャラクターボイスを追加するのに役立つだろう。 映像や音声を簡単に操作できる民生用ツールは、ディープフェイクの増加を加速させるかもしれない。 こうしたツールを開発する企業の中には、すでに技術の不正使用対策を検討しているところもある。 のCEOは「暗号透かし技術、新たな通信プロトコル、セキュリティと認証に向けた学術界との連携を進めるなど、多面的な対策を検討しています」という。 ディープフェイクが社会にもたらす影響 こうした技術は、映画やゲーム、エンターテイメントの製作コストを大幅に削減してくれるだろうが、ニュースメディアのみならず、社会全体のリスクを増大させる可能性もある。 たとえば、政治家を外国の工作員の会合に政治家を参加させたり、兵士を民間人に対する犯罪に加担させることもフェイクビデオには可能だ。 フェイク音声を作成して、政府当局者が他国への攻撃を計画しているように見せかけることもできるだろう。 「ディープフェイクをはじめとする映像操作の有効性は明白です。 この手のイカサマはすぐさま効果が期待できるのです」とのCEOは言う。 同社はパブリッシャのコンテンツを改ざんから保護するプラットフォームを運営している。 「こうした技術が安価になったとき、私たちは真剣に考えなければならなくなるでしょう。 安くて効果的だとなれば、広く使われるようになることは明白です」 は、こうしたシナリオを警戒し、それを回避するための戦略に取り組んでいる。 さらに、ディープフェイクはニュース機関を騙し、その信頼性を損ねるために利用される可能性もある。 メディアが真偽不確かなフェイクビデオを公開してしまえば、ニュースルームへの信頼が損なわれ、メディアそのものへの不信感が更に強まる結果を招くかもしれない。 またジャーナリストは別の危険を抱えることにもなる。 ニュースのプロが状況を捻じ曲げ、事実を改ざんしていることを示すために、ジャーナリスト個人を標的としたディープフェイクが作成される可能性もある。 これもまた、報道への不信感を高め、危機感を募らせる目的で行われるだろう。 ディープフェイクがソーシャルメディアに浸透していけば、我々がこれまでに見てきたようなフェイクニュースの拡散と同様のパターンを示すことになるだろう。 によると、「あらゆるカテゴリの情報において、虚偽は真実よりもはるかに速く、より深く、より広く拡散した」という。 虚偽の記事は真実の記事よりも70%以上多くリツイートされ、正確な記事よりも6倍速く1500人に到達していた。 これからどうなるのか ディープフェイクの問題は非常に根深い問題である。 精巧な捏造がメディアの検証を困難にし、時間が経過するにつれてますます難しくなっていくのは間違いない。 「私たちは深層学習技術の急速な発展を目にしてきました。 そこで考えるべきはこういうことです。 その発展はこれからも続くのか。 それともこれで頭打ちなのか。 これから一体何が起こるのか」と、写真フォレンジックの専門家で、来年にはカリフォルニア大学バークレー校の教授に就任する氏は語った。 彼は今後18ヶ月間が正念場だという。 「問題への意識は高まっている」として、2020年の選挙までに、研究者たちは一歩先んじているはずだと予想する。 先行きを見通すことは難しい。 しかし、ニュースルームは、調査を実施し、学術機関と連携し、ジャーナリストに新たなツールの活用方法をトレーニングすることで、この脅威の進化に立ち向かうことができるはずだ。 — さて、冒頭のディープフェイク・クイズの答え合わせをしよう。 左の映像がAIを使って改ざんされたものである。 は、バラク・オバマの顔の動きをロナルド・レーガンの顔に移植するために「」という表情再現を用いた。 詳しくは以下の動画を参照いただきたい。 — は、ウォール・ストリート・ジャーナルの研究開発部門のチーフ。 はWSJのリサーチフェローでNYT Studio 20のジャーナリズム・プログラムを修了予定。

次の

「ディープフェイク」とは何か?AI技術やフェイクポルノとはどう関係しているのか? VISTEC スパソーン・スワジャナコーン氏×Appier ミン・スン氏|ビジネス+IT

ディープフェイク 作成

ユーザーが録音音声に加えたい言動を文字で入力すれば、Overdub機能によってその言動が自分の声で述べられているように聞こえる。 Descriptの最高経営責任者(CEO)であるAndrew Mason氏のによると、これは決してディープフェイクの作成を意図したものではない。 音声モデルの訓練のために、ユーザーはランダムに生成された文章を話している音声を録音する必要があるため、既存の録音音声を使って他人の音声によるモデルを作成することはできないとしている。 だがDescriptは同社のにあるFAQ(よくある質問とその回答)で、同社の技術は独自のものだが、基礎研究はすでに広く行われており、他社の今後の製品は使用上の制約が同じではない場合があると述べている。 「だからこそ、制御された環境でテクノロジーを世界に紹介することがわれわれにとって重要だ」と、Lyrebirdの共同創業者のJose Sotelo氏は米CNETへの電子メールで述べ、「そうすれば世界は潜在的な悪意のある攻撃に対し、より適切に対処できる体制を整えられる」とした。 Descriptはテキスト読み上げモデルの作成に使われる録音音声を保存している。 だがユーザーは録音音声をいつでも消去できるとSotelo氏は述べた。 これまでに、Facebook最高経営責任者(CEO)のや俳優のTom Cruiseさん、などがディープフェイクの対象となっている。 米議員らはディープフェイクについて、「米国の公共の議論や国家安全保障に脅威を与える可能性がある」と述べている。 The Japanese edition of 'CNET' is published under license from CBS Interactive, Inc. , San Francisco, CA, USA. Editorial items appearing in 'CNET Japan' that were originally published in the US Edition of 'CNET', 'ZDNet', 'TechRepublic', 'GameSpot' and 'CNET News. com' are the copyright properties of CBS Interactive, Inc. or its suppliers. Copyright c CBS Interactive, Inc. All Rights Reserved. 'CNET', 'ZDNet' 'GameSpot' and 'CNET News. com' are trademarks of CBS Interactive, Inc.

次の

楽しいディープフェイク。誰でも映画スターにできるアプリ

ディープフェイク 作成

画像外部リンク ディープフェイク(deepfake)は「(deep learning)」と「(fake)」を組み合わせた(かばん語)で 、にもとづく人物画像合成の技術を指す。 「(GANs)」と呼ばれる技術を使用して、既存の画像と映像を、元となる画像または映像に重ね合わせて()、結合することで生成される。 既存と元の映像を結合することにより、実際には起こっていない出来事で行動している1人あるいは複数人の偽の映像が生み出されることとなる。 そのような偽の映像で、例えば、実際にはしていない性行為をしているように見せかけたり、実際とは異なる言葉やジェスチャーに変更するといった政治的な利用が可能となる。 これらの機能により、有名人のまたはの偽造作成のため、ディープフェイクが使用される可能性がある。 さらに、ディープフェイクは、や悪意のあるを作成するためにも使用され得る。 ディープフェイク [ ] 2017年にインターネット上で、特にでディープフェイクのポルノが初めて現れ 、現在ではReddit、、などのサイトで禁止されている。 2017年秋、"Deepfakes" というののRedditユーザーがインターネットにいくつかのポルノビデオを投稿した。 注目を集めた最初のものは、のディープフェイクだった。 それはまた、よく知られたディープフェイクビデオの1つで、いくつかの記事の中でひときわ目立つものであった。 ほかのディープフェイクとして、継兄弟と性行為をしているを演じた女優の、また、、、、があった。 を使用して作成された、それらのビデオは本物ではなく、ほどなく偽物であることが暴かれた。 時間が経つにつれて、Redditのは偽造ビデオの多くのを修正し、偽物と本物のを区別することが次第に困難になった。 で容易に入手できる女優の非ポルノの写真やビデオは、のための訓練データとして使用された。 ディープフェイク現象は、2017年12月に、雑誌()の技術と科学の欄で初めて報告され、他のメディアでも広く報道された。 2018年12月、頻繁にディープフェイクポルノの対象となっているスカーレット・ヨハンソンが、の取材に対し、以下のように語っている。 用意した声明の中で、彼女はこの現象についての懸念を表明し、インターネットを「自分自身を食べる暗黒の巨大な」と表現している。 しかし、それが自分の公共のイメージに影響を及ぼさないこと、そして国によって法律が異なること、インターネット文化の性質()によりディープフェイクを削除するどのような試みも無駄な努力になること、以上の考えから、彼女は、自分のディープフェイクの削除を試みようとはしないと述べた。 彼女は、自分自身のような有名人は名声によって保護されているが、一般女性にとっては、不本意なポルノやリベンジポルノの描写によって評判が損なわれる可能性のある深刻な脅威をもたらす、と考えている。 英国では、ディープフェイクの製作者をで起訴できるが、ディープフェイクを特定の犯罪に指定することが求められている。 米国では、、、リベンジポルノのようなさまざまなものが告発される、さらに包括的な法令にしていこうとする動きもある。 などのポルノ動画サイトでは、日本人女優やアイドルのディープフェイクの動画があり、が確認しただけでも10個以上は存在し、多いものでは300万回以上再生されているものもあった。 サイバーセキュリティ会社「DeepTrace」の2019年10月の調査によると、過去7か月で1万4678件のディープフェイク動画が確認され、1年で倍増しており、その96%がポルノ動画だった。 ディープフェイクに特化した上位4つのポルノサイトでは、数百人の女性有名人のフェイク動画が、計1億3400万回以上も再生されているという。 政治 [ ] ディープフェイクは、有名な政治家を、ビデオやで、事実と異なるかたちで伝えるために使用されている。 例えば、大統領のの顔はの顔に、そしての顔はの顔に置き換えられた。 トランプがを訪問していた2017年11月に中国企業の ()は流暢なを話して自社とAIを褒めたたえるトランプのディープフェイクを披露して波紋を呼んだ。 2018年4月、とJonah Peretti は、ディープフェイクの危険性に関するとして、を使ったディープフェイクを作成した。 2019年1月、は、(大統領執務室)におけるトランプの演説のディープフェイクを放映し、彼の外観と肌の色をあざけった。 メディア [ ] 中国では国営メディアのがディープフェイクの技術を用いて実在のから合成した世界初の人工知能が開発されており 、政府の重要な会議の報道でも使用された。 この技術はやの国営メディアでも採用されている。 しかし、ディープフェイクは虚偽報道であるを助長させるとして問題視されており 、2019年11月に中国政府はからディープフェイクを使用したフェイクスニュースを禁止することを発表した。 ディープフェイクのソフトウェア [ ] 2018年1月、FakeAppというのが発表された。 このアプリケーションでは、ユーザーが顔を入替えた動画を簡単に作成および共有できる。 このアプリケーションは、フェイクビデオを生成するために、、のパワー、そして3〜4のスペースが必要である。 詳細な情報については、プログラムは、ビデオおよび画像に基づくのを使用して、どの画像アスペクトを交換しなければならないかを学習するため、挿入されるべき人物からの多くの視覚材料を必要とする。 そのソフトウェアは、の-であるを使用する、それは、とりわけコンピュータビジョンのプログラムである()のためにすでに使用されていた。 はそのような偽のセックスビデオの主な標的となっているが、一般の人々も影響を受けている。 2018年8月研究者は、人工知能を使って子供をプロのに置き換えることができるフェイクダンスアプリケーションを紹介する論文を発表した。 2019年8月、中国で1枚の顔写真でディープフェイクを作成できるZAOというアプリケーションが発表されて同年9月にの人気ランキングで1位になるもユーザーの同意なしにデータを使用される可能性があるが物議を醸し 、アメリカでは選挙介入やフェイクニュースに利用される可能性を懸念する声があがった。 フィクションにおけるディープフェイク [ ] ディープフェイクや有名人のフェイクポルノの現象は、 Michael Grothaus による小説「 Epiphany Jones」で探求されている。 この小説は、文学的な、社会、であり、セックス、有名人、インターネット対するアメリカの強迫観念についての暗いである、またポルノ中毒者と神と話すことができると考える女との不本意な関係、およびハリウッドエリートへ性的なを行う業者との交絡を探る内容である。 小説の主人公、ジェリー・ドレスデンは、有名人のフェイクポルノへの中毒に苦しんでいる。 小説で言及されている特定の有名人の偽物には、 、、、、、、が含まれる。 さらに、とといった死亡した有名人の偽物についても小説に記載されている。 批評 [ ] 悪用 [ ] スイスに本社を置く新聞社であるAargauer Zeitung は、人工知能を使った画像やビデオの操作は、危険な大量のメディアがあふれることになる可能性があると述べている。 しかし、画像やビデオの改ざん自体は、やの登場よりもずっと古いものであり、このたびのディープフェイクの場合、新しい側面はそのリアリズムにある。 標的を絞ったやリベンジポルノにディープフェイクを使用することも可能である。 信頼性と信憑性への影響 [ ] ディープフェイクのもう1つの効果は、その内容が標的となった偽物(例えば)なのか本物なのかを区別できなくなることである。 人工知能の研究者であるAlex Champandardは、この技術によって今日のものがどれだけ速く改変され得るか、そして問題は技術的なものではなく、情報との信頼によって解決されるものであるということを、すべての人が知っておくべきであると述べた。 最重要な落とし穴は、描写されているが真実に対応しているかどうかを、もはや判断できなくなる時代に人類が陥る可能性があることである。 インターネットの反応 [ ] やGfycatなどのいくつかのでは、ディープフェイクのコンテンツを削除し、その発行元をブロックすると発表している。 以前、チャットプラットフォームのは、有名人のフェイクポルノビデオのチャットチャンネルをブロックした。 ポルノグラフィのウェブサイトの もそのようなコンテンツをブロックする予定であるが、その禁止を強制していないと報告されている。 Redditでは、2018年2月7日に「不本意のポルノ」のポリシー違反により、subreddit(Redditのサブフォーラム)が一時停止されるまで、初期の状態が削除されないまま残っていた。 2018年9月、グーグルは、誰もが自分の本物あるいは偽物ヌードのブロックを要求でき、その禁止リストに「不本意の合成ポルノ画像」追加した。 参考文献 [ ]• Brandon, John 2018年2月16日. Fox News. 2018年2月20日閲覧。 Schwartz, Oscar 2018年11月12日. The Guardian. 2018年11月14日閲覧。 Highsnobiety. 2018年2月20日. 2018年2月20日閲覧。 The Outline. 2018年2月28日閲覧。 Roose, Kevin 2018年3月4日. The New York Times. 2018年3月24日閲覧。 Roettgers, Janko 2018年2月21日. Variety. 2018年2月28日閲覧。 2018年2月20日閲覧。 Kharpal, Arjun 2018年2月8日. CNBC. 2018年2月20日閲覧。 PCMAG. 2018年2月20日閲覧。 , Motherboard, 2017-12-11 ,• The Washington Post Harrell. 2019年1月1日閲覧。 BuzzFeed. 2020年1月15日閲覧。 az Aargauer Zeitung 2018年2月3日. 2019年1月26日閲覧。 Patrick Gensing 2018年2月22日. 2019年1月26日閲覧。 Thatsmags. com 2017年11月10日. 2019年9月3日閲覧。 2017年12月3日. 2019年9月3日閲覧。 Romano 2018年4月18日. Vox. 2018年9月10日閲覧。 Swenson 2019年1月11日. The Washington Post. 2019年1月11日閲覧。 2019年3月6日. 2019年6月24日閲覧。 2019年3月6日. 2019年6月24日閲覧。 Asia One 2019年6月14日. 2019年6月24日閲覧。 2019年6月18日. 2019年6月24日閲覧。 The Verge 2019年11月29日. 2019年11月30日閲覧。 de ,• heise online, ,• Farquhar, Peter 2018年8月27日. Business Insider Australia. 2018年8月27日閲覧。 The Verge. 2018年8月27日閲覧。 2019年9月2日. 2019年9月3日閲覧。 2019年9月3日. 2019年9月3日閲覧。 2019年9月5日. 2019年9月5日閲覧。 Chopin. nydailynews. com. 2018年12月31日閲覧。 , Die Zeit, 2018-01-26 , ,• Engadget. 2018年4月21日閲覧。 BuzzFeed. 2018年4月21日閲覧。 barbara. wimmer, ,• 2019年1月26日閲覧。 関連項目 [ ]• 外部リンク [ ]•

次の