Зарыг хаах

Deepfake - зураг, видеон дээрх хүмүүсийн царайг өөр хүний ​​царайгаар солих боломжтой технологи нь сүүлийн жилүүдэд бодит бичлэг болон хуурамч мэдээллийн хоорондох ялгаа улам бүр төвөгтэй болж хувирсан хэлбэрт шилжсэн. Порнограф контент бүхий сайтууд дээр жишээлбэл, алдартай жүжигчдийн дүр төрхийг харуулсан сэтгэл хөдөлгөм видеог бүтээхэд deepfake ашигладаг. Мэдээжийн хэрэг, энэ бүхэн халдлагад өртсөн хүмүүсийн зөвшөөрөлгүйгээр явагддаг бөгөөд машин сургалтыг ашиглан технологи улам боловсронгуй болж байгаагийн ачаар түүнийг урвуулан ашиглах бусад хэлбэрүүдийн талаар айдас түгж байна. Хуурамч мэдээлэл нь шүүхийн хэргийн нотлох баримт болгон дижитал бүртгэлийг бүрэн гутааж болзошгүй аюул бодитой бөгөөд Дамоклийн сэлэм шиг шударга ёсны салбарыг хамарч байна. Сайн мэдээ нь одоо Truepic-ээс ирсэн бөгөөд тэд жагсаалтын жинхэнэ эсэхийг шалгах энгийн аргыг олсон байна.

Үүнийг бүтээгчид шинэ технологийг Foresight гэж нэрлэсэн бөгөөд нэмэлт видео шинжилгээ хийж, энэ нь гүнзгий хуурамч эсэхийг тодорхойлохын оронд жинхэнэ эсэхийг баталгаажуулахын тулд бие даасан бичлэгүүдийг үүсгэсэн техник хангамжтай холбох аргыг ашигладаг. Foresight нь шифрлэгдсэн мета өгөгдлийн тусгай багцаар үүсгэгдсэн бүх бичлэгийг тэмдэглэдэг. Өгөгдлийг нийтлэг форматаар хадгалдаг, хуудасны урьдчилж харах хэсэгт Android Цагдаа Тус компани ийм байдлаар хамгаалагдсан зургийг JPEG форматаар хадгалах боломжтойг харуулсан. Тиймээс таарахгүй өгөгдлийн форматаас айдаггүй.

Гэвч технологи нь жижиг ялаа эгнээнд зовж байна. Хамгийн том нь файлууд нь тэдэнд хийсэн өөрчлөлтийг хараахан бүртгээгүй байгаа явдал юм. Үүний шийдэл бол аюулгүй байдлын энэ аргыг дэмжих олон компаниудыг татан оролцуулах явдал юм. Технологийн амжилтыг голчлон Samsung тэргүүтэй камер, хөдөлгөөнт төхөөрөмж үйлдвэрлэгч томоохон компаниудын оролцоо тодорхойлогдоно. Applem. Хэн нэгэн таны гадаад төрхийг буруугаар ашиглах вий гэж айж байна уу? Өгүүллийн доорх хэлэлцүүлэгт санал бодлоо бидэнтэй хуваалцаарай.

Өнөөдрийн хамгийн их уншсан

.