Мазмуну:

Терең жасалмалар: Neuroset үн жана видео фейктерди жасоого үйрөтүлгөн
Терең жасалмалар: Neuroset үн жана видео фейктерди жасоого үйрөтүлгөн

Video: Терең жасалмалар: Neuroset үн жана видео фейктерди жасоого үйрөтүлгөн

Video: Терең жасалмалар: Neuroset үн жана видео фейктерди жасоого үйрөтүлгөн
Video: #1 Absolute Best Diet To Lose Belly Fat For Good 2024, Апрель
Anonim

Биздин ар бирибиз үчүн “индивидуалдык” жаңылык картинасын түзүү жана андагы тандалып алынган ЖМКларды бурмалоо үчүн бүгүнкү күндө бир программисттин аракети жетиштүү. Бул тууралуу «Известияга» жасалма интеллект жана киберкоопсуздук боюнча адистер билдирди.

Жакында эле алар бул үчүн бир нече команданын иштешин талап кылышкан. Мындай тездетүү нейрондук тармактарга чабуул жасоо үчүн технологияларды өнүктүрүү жана "терең фейктерди" түзүү программаларын колдонуу менен аудио жана видео фейктерди түзүү менен мүмкүн болду. Жакында эле «Известия» гезити да ушундай эле чабуулга дуушар болгон, анда Ливиянын үч маалымат порталы дароо эле сандардын биринде жарыяланган билдирүүнү жарыялаган. Эксперттердин пикири боюнча, 3-5 жылдын ичинде биз робот-манипуляторлордун басып кирүүсүн күтүүгө болот, алар автоматтык түрдө көптөгөн жасалмаларды түзө алат.

Кайраттуу жаңы дүйнө

Маалымат сүрөтүн конкреттүү колдонуучулардын кабылдоосуна ылайыкташтырган долбоорлор барган сайын көбөйүүдө. Алардын ишинин бир мисалы катары 20-ноябрда «Известия» гезитинин санында жарыяланган делген кабарды жарыялаган үч ливиялык порталдын жакында жасаган аракети болду. Фейктин түзүүчүлөрү гезиттин биринчи бетине фельдмаршал Халифа Хафтар менен Улуттук макулдашуу өкмөтүнүн (ПНС) премьер-министри Файез Сарраждын сүйлөшүүлөрү тууралуу билдирүүнү өзгөртүп, редакциялашты. «Известия» шрифтиндеги фейк эки лидердин 2017-жылдын май айында тартылган сүрөтү менен коштолгон. Басылманын логотиби бар этикетка 20-ноябрдагы иш жүзүндөгү басылган сандан, ал эми беттеги бардык башка тексттер 23-октябрдагы сандан кесилген.

Адистердин көз карашы боюнча, жакынкы келечекте мындай фальсификациялар автоматтык түрдө жасалышы мүмкүн.

Трумэн Шоу - 2019: Нейрондук тармактар жаңылыктар сүрөтүн кантип жасалмалоого үйрөттү
Трумэн Шоу - 2019: Нейрондук тармактар жаңылыктар сүрөтүн кантип жасалмалоого үйрөттү

"Жасалма интеллект технологиялары азыр толугу менен ачык, ал эми маалыматтарды кабыл алуу жана иштетүү үчүн түзүлүштөр кичирейип, арзандап баратат", - Юрий Вилситер, физика-математика илимдеринин доктору, Россия Илимдер академиясынын профессору, ФГУнун "ГосНИИАС" бөлүмүнүн башчысы, - деди «Известияга». - Демек, жакынкы келечекте мамлекет жана ири корпорациялар эмес, жөн эле жеке адамдар бизди тыңшап, аңдып, реалдуулукту манипуляциялоо мүмкүнчүлүгүнө ээ болушу толук ыктымал. Жакынкы жылдарда колдонуучулардын каалоолорун талдоо менен ага жаңылыктар ленталары жана өтө акылдуу фейктер аркылуу таасир этүүгө болот.

Юрий Вилситердин айтымында, психикалык чөйрөгө мындай кийлигишүү үчүн колдонула турган технологиялар мурунтан эле бар. Теориялык жактан алганда, робот-боттордун чабуулун бир нече жылдан кийин күтсө болот, деди ал. Бул жерде чектүү чекит узак мөөнөттүү кесепеттерге көз салуу менен жасалма стимулдарга реалдуу адамдардын жооп мисалдарынын чоң маалымат базасын чогултуу зарылдыгы болушу мүмкүн. Мындай көз салуу максаттуу чабуулдар ырааттуу алынганга чейин дагы бир нече жыл изилдөөнү талап кылат.

Көрүү чабуулу

SearchInform аналитика бөлүмүнүн башчысы Алексей Парфентьев да Юрий Вилситердин пикирине кошулат. Анын айтымында, эксперттер нейрондук тармактарга чабуулдарды алдын ала айтышкан, бирок азыр андай мисалдар дээрлик жок.

- Gartner изилдөөчүлөрү 2022-жылга карата бардык киберчабуулдардын 30% нейрондук тармак машыккан маалыматтарды бузууга жана машина үйрөнүүнүн даяр моделдерин уурдоого багытталат деп эсептешет. Анда, мисалы, пилотсуз унаалар күтүлбөгөн жерден башка объекттер үчүн жөө адамдарды адашып башташы мүмкүн. Ал эми каржылык же репутациялык тобокелчилик жөнүндө эмес, карапайым элдин өмүрү жана ден соолугу жөнүндө сөз кылабыз, деп эсептейт эксперт.

Азыр изилдөөнүн алкагында компьютердик көрүү системаларына чабуул жасалууда. Мындай чабуулдардын максаты нейрондук тармакка сүрөттөлүштө жок нерсени аныктоо болуп саналат. Же, тескерисинче, пландаштырылган нерсени көрүү үчүн эмес.

Трумэн Шоу - 2019: Нейрондук тармактар жаңылыктар сүрөтүн кантип жасалмалоого үйрөттү
Трумэн Шоу - 2019: Нейрондук тармактар жаңылыктар сүрөтүн кантип жасалмалоого үйрөттү

"Нейрондук тармактарды окутуу жаатында жигердүү өнүгүп жаткан темалардын бири - бул атаандаштык чабуулдар ("душмандык чабуулдар. - Известия"), - деп түшүндүрдү Касперский лабораториясынын веб-аналитиги Владислав Тушканов. - Көпчүлүк учурларда алар компьютердик көрүү системаларына багытталган. Мындай чабуулду ишке ашыруу үчүн, көпчүлүк учурларда, нейрондук тармакка (ак кутуча чабуулдары деп аталган) же анын ишинин натыйжаларына (кара кутуча чабуулдар) толук мүмкүнчүлүк болушу керек. 100% учурларда эч кандай компьютердик көрүү системасын алдай турган ыкмалар жок. Мындан тышкары, каршылык чабуулдарына каршылык көрсөтүү үчүн нейрондук тармактарды сынап көрүүгө жана алардын каршылыгын жогорулатууга мүмкүндүк берүүчү куралдар буга чейин түзүлгөн.

Мындай чабуулдун жүрүшүндө чабуулчу нейрондук тармак иштебей тургандай кылып кандайдыр бир жол менен таанылган сүрөттү өзгөртүүгө аракет кылат. Көбүнчө, ызы-чуу начар жарык бөлмөдө сүрөткө тартып жатканда пайда болгон сыяктуу эле, сүрөткө үстөл. Адам, адатта, мындай кийлигишүүнү жакшы байкабайт, бирок нейрон тармагы бузула баштайт. Бирок мындай чабуулду ишке ашыруу үчүн чабуулчу алгоритмге кирүү мүмкүнчүлүгүнө ээ болушу керек.

«Нейросет Ашмановдун» башкы директору Станислав Ашмановдун айтымында, учурда бул көйгөй менен күрөшүүнүн ыкмалары жок. Кошумчалай кетсек, бул технология бардыгына жеткиликтүү: орточо программист аны Github сервисинен керектүү ачык булактуу программалык камсыздоону жүктөп алуу менен колдоно алат.

Трумэн Шоу - 2019: Нейрондук тармактар жаңылыктар сүрөтүн кантип жасалмалоого үйрөттү
Трумэн Шоу - 2019: Нейрондук тармактар жаңылыктар сүрөтүн кантип жасалмалоого үйрөттү

- Нейрондук тармакка чабуул - бул нейрондук тармакты алдоо ыкмасы жана алгоритмдери, ал жалган жыйынтыктарды берип, чындыгында аны эшиктин кулпусу сыяктуу талкалайт, - деп эсептейт Ашманов. - Мисалы, азыр жүзүн таануу системасын сиз эмес, анын алдында Арнольд Шварцнеггер деп ойлоо оңой - бул нейрондук тармакка келген маалыматтарга адамдын көзүнө көрүнбөгөн кошумчаларды аралаштыруу аркылуу жасалат. Ошол эле чабуулдар кепти таануу жана талдоо системалары үчүн мүмкүн.

Эксперт мындан да начарлай берерине ишенет - бул технологиялар массага кетти, алдамчылар аларды мурунтан эле колдонуп жатышат жана алардан эч кандай коргоо жок. Анткени видео жана аудио жасалмаларды автоматташтыруудан коргоо жок.

Терең жасалмалар

Deep Learningге негизделген Deepfake технологиялары (нейрондук тармактарды терең үйрөнүү технологиялары. - Известия) азыртадан эле реалдуу коркунуч жаратууда. Видео же аудио фейктер керектүү текстти айтып, сюжетте керектүү ролду ойногон атактуу адамдардын жүзүн монтаждоо же каптоо жолу менен түзүлөт.

"Deepfake эриндин кыймылын жана адамдын сүйлөөсүн видео менен алмаштырууга мүмкүндүк берет, бул болуп жаткан окуялардын реалдуу сезимин жаратат" дейт Андрей Бусаргин, Group-IB инновациялык брендди коргоо жана интеллектуалдык менчик департаментинин директору. - Жасалма атактуулар социалдык тармактарда колдонуучуларга баалуу байгелердин (смартфондор, унаалар, акчалай суммалар) ойнотууга катышууга “сунушташат”. Мындай видео басылмалардагы шилтемелер көбүнчө алдамчылык жана фишинг сайттарына алып келет, анда колдонуучулардан жеке маалыматтарды, анын ичинде банк картасынын реквизиттерин киргизүүнү суранышат. Мындай схемалар катардагы колдонуучуларга да, жарнамалык роликтерде айтылган коомдук ишмерлерге да коркунуч жаратат. Мындай алдамчылык атактуулардын сүрөттөрүн шылуундар же жарнамаланган товарлар менен байланыштыра баштайт жана бул жерде биз жеке брендге зыян келтиребиз, дейт ал.

Трумэн Шоу - 2019: Нейрондук тармактар жаңылыктар сүрөтүн кантип жасалмалоого үйрөттү
Трумэн Шоу - 2019: Нейрондук тармактар жаңылыктар сүрөтүн кантип жасалмалоого үйрөттү

Дагы бир коркунуч телефондук алдамчылык үчүн “жасалма добуштарды” колдонуу менен байланышкан. Мисалы, Германияда киберкылмышкерлер Улуу Британиядан келген туунду компаниянын жетекчисин телефон аркылуу сүйлөшүүдө компаниянын менеджери катары көрсөтүү үчүн 220 000 еврону шашылыш түрдө которуу үчүн үндүү терең фейк колдонушкан.венгриялык камсыздоочунун эсебине. Британ фирмасынын жетекчиси анын «шефи» экинчи жолу акча которууну суранганда, айла-амалдан шектенген, бирок чалуу австриялык номерден келген. Бул убакта биринчи транш Венгриядагы эсепке которулуп, ал жерден акча Мексикага чыгарылды.

Көрсө, азыркы технологиялар фейк жаңылыктар менен толтурулган жеке жаңылык сүрөтүн түзүүгө мүмкүндүк берет. Анын үстүнө, жакын арада фейкти чыныгы видео жана аудиодон аппараттык каражаттар боюнча гана айырмалоо мүмкүн болот. Эксперттердин айтымында, нейрондук тармактарды өнүктүрүүгө тыюу салуу чаралары натыйжалуу болушу күмөн. Ошондуктан, жакында биз бардыгын дайыма кайра текшерип туруу керек болгон дүйнөдө жашайбыз.

"Биз буга даярданышыбыз керек жана муну кабыл алуу керек", - деп баса белгиледи Юрий Вилситер. - Адамзат бир чындыктан экинчисине биринчи жолу өтүп жаткан жок. Биздин дүйнө, жашоо образыбыз жана баалуулуктарыбыз 60 000 жыл мурун, 5 000 жыл мурун, 2 000 жыл мурун, ал тургай 200-100 жыл мурун жашаган ата-бабаларыбыз жашаган дүйнөдөн кескин түрдө айырмаланат. Жакынкы келечекте адам жеке жашоодон ажырап калат, ошондуктан эч нерсени жашырууга жана чынчылдык менен иш-аракет кылууга мажбур болот. Ошол эле учурда, курчап турган реалдуулукта жана адамдын жеке инсанында эч нерсе ишеним менен кабыл алынбайт, бардыгын суракка алуу жана тынымсыз текшерүү керек болот. Бирок бул келечектеги чындык коркунучтуу болобу? Жок. Бул жөн эле такыр башкача болот.

Сунушталууда: