ІІ Nvidia робить фейкові відео, які неможливо відрізнити від реальних


Опубликованно 15.12.2017 01:25

ІІ Nvidia робить фейкові відео, які неможливо відрізнити від реальних

У гонитві за крутим штучним інтелектом (ШІ) Nvidia потихеньку відкриває ящик пандори. Днями вони представили неконтрольований метод машинного навчання, який може кардинально змінити зміст відеоконтенту, яке ви йому згодували.

У гонитві за крутим штучним інтелектом (ШІ) Nvidia потихеньку відкриває ящик пандори. Днями вони представили неконтрольований метод машинного навчання, який може кардинально змінити зміст відеоконтенту, яке ви йому згодували. Що він вміє

Багато чого. Наприклад, поміняти колір шкіри людини (або військову форму), погоду на вулиці або час доби, домалювати машину на дорозі або прибрати плями з леопарда. І це лише кілька демо-роликів від Nvidia. Як це працює

Попередні методи машинного навчання такого ІІ вимагали великих обсягів даних для порівняння. З-за великих обсягів даних було проблематично навчити ІІ бачити патерни і закономірності. Тому вони спробували навчити ІІ бачити картинку як розмальовку, кожен елемент якої — це якась типова задача, зразок заливки кольором, зміни кольорів, збільшення дозволу, замилювання картинки і т. д.

  Чому це круто. І чому не круто

З одного боку, це відкриває божевільні можливості для обробки відео. З іншого боку, це лякає людей. Наприклад, ШІ від Nvidia вже вміє робити фейкові відео, які не тренований людина не розпізнає в 99% випадків. А канадський стартап Lyrebird не так давно навчив ІІ говорити чужим голосів. Володіючи такими інструментами будь-яка людина з фантазією і завзятістю зможе створювати правдоподібні події, яких не було немовлят на хрестах, збройні конфлікти, інопланетян та аншлаги на концерті Тіматі.

Джерело: The Next Web



Категория: Hi-Tech


Спонсор

Спонсор

Ссылки партнеров

Ваша реклама тут