Полезни съвети      

Samsung ще накара снимките ви да заговорят

от Лили Георгиева | 27.05.2019 г.

Фалшивите новини са явление, което трудно може да се различи от реалните новини не само поради самото съдържание на статиите и тяхното „вирусно“ въздействие в социалните мрежи, но и поради това, че в наши дни стана все по-лесно да се създават действително реалистични фалшиви видеа и снимки. Освен това фалшивите новини не са добро явление и поради това, че влияят на поведението на хората, резултатите от избори и помагат на мошениците да осъществяват пъклените си планове.

Представете си, че стане следното – изкуствен интелект може да създава фалшиви, но реалистични видеа с хора, използвайки само една тяхна снимка. Преди дни Samsung разработи нов изкуствен интелект, който умее именно това.

В лаборатория, намираща се в Русия, технологията на Samsung е научена да фабрикува фалшиви видеа с хора, имайки на разположение само една тяхна снимка и дори рисунка. Резултатът е реалистичен.

Едно от публикуваните видеа показва как Мона Лиза на Леонардо да Винчи се движи и говори. Тук трябва да отчетем факта, че единственото изображение на Мона Лиза, което е използвано за създаването на видеото, е картината. Други няма.

До този момент за създаването на фалшиви видеа, за да се постигне реалистичен резултат, експертите имаха нужда от много изображения. Благодарение на усилията на южнокорейския гигант, сега е предостатъчна една снимка.

Как да правим перфектните снимки

Новото творение на Samsung носи названието «realistic neural talking heads» (реалистични невронни говорещи глави), а думата «невронни» тук се използва не просто за красота.

Невронните мрежи са тих машинно обучение, способен да имитира човешкия мозък. Те имат много общо с новия алгоритъм на Samsung. За създаването на видеоклип изкуственият интелект разглежда много видеа, за да разбере как се движат човешките лица. След това използва извлечените данни за създаването на реалистично видео само от една снимка.

Съществуват много сфери, в които тази технология ще донесе ползи. Надяваме се, че тя няма да бъде използвана за създаването на фалшиви видеа или шантаж. Но какъв е шансът нещата да не се объркат?

Източник на снимките: pixabay.com