Acesta este modul în care Google va corecta fotografiile cu un obiectiv cu unghi larg
Cuprins:
- Acesta este modul în care funcționează algoritmul Google
- Corecție automată ținând cont de context
- Poate vom vedea această tehnologie în Pixel
Cercetătorii de la Google și MIT au dezvoltat un algoritm care urmărește să corecteze defectele din fotografiile cu unghi larg.
Este posibil să fi văzut că fețele unor persoane par întinse, ușor strivite sau cu o oarecare distorsiune în fotografii. Deși s-ar putea datora puținelor abilități ale fotografului, adevărul este că fotografiile cu obiectivul unghi larg de pe dispozitivele mobile provoacă de obicei distorsiuni în obiecte sau persoane care se află pe marginea imaginii.
Există diferite metode care încearcă să rezolve această problemă, dar până acum niciuna nu a fost la fel de eficientă ca noua propunere Google. Deși poate părea ușor de remediat, nu este, deoarece necesită o editare locală complexă care nu afectează restul obiectelor din fotografie.
Acesta este modul în care funcționează algoritmul Google
După cum explică cercetătorii, acest algoritm detectează fețele și creează o rețea care permite inversarea automată a acestui tip de distorsiune atunci când faceți o fotografie cu unghi larg, așa cum este ilustrat în imagine:
Putem face diferența atunci când aplicăm acest algoritm în următoarele imagini. Este un selfie realizat cu un obiectiv cu unghi larg cu un câmp vizual de 97 °.
Prima imagine arată distorsiunile fețelor și a doua arată cum algoritmul a restabilit formele feței la starea lor inițială.
Adică, acest proces este activat automat atunci când se utilizează obiectivul cu unghi larg, oferind această asistență specială fețelor, dar fără a provoca modificări în restul imaginii. Și, desigur, viteza acestei corecții automate (aproximativ 920 de milisecunde) face imposibilă detectarea utilizatorilor.
Conform testelor pe care le-au efectuat, acest algoritm funcționează cu succes în domeniul de vedere de la 70 ° la 120 °, acoperind aproape toate posibilitățile de pe un dispozitiv mobil.
Pentru a profita de potențialul acestui algoritm, utilizatorul nu ar trebui să întreprindă nicio acțiune sau să activeze niciun mod special de cameră. Această funcție ar fi implementată automat numai atunci când detectează că este utilizat obiectivul cu unghi larg.
Corecție automată ținând cont de context
Putem vedea dinamica acestui algoritm în următorul videoclip:
Algoritmul corectează automat ținând cont de restul obiectelor care apar pe scenă, asigurându-se că întregul context al fotografiei se potrivește. Rezultatele sunt naturale, fără detalii care arată că fotografia a fost deloc modificată.
Echipa din spatele acestui proiect a distribuit o galerie foto pe Flickr care arată modul în care diferite metode abordează această problemă în comparație cu dinamica algoritmului lor. Există mai mult de 160 de fotografii (precum cea pe care o vedeți la începutul articolului) care ne ajută să evaluăm rezultatele.
Poate vom vedea această tehnologie în Pixel
Am putea spera că acest algoritm sau o tehnologie derivată va fi aplicată în următoarea generație de Pixel, deoarece echipa care participă la acest proiect sunt angajați ai Google.
Cu toate acestea, în documentul pe care l-au distribuit, nu au menționat nimic despre asta. Aceste prime teste ale algoritmului în acțiune au reușit să demonstreze încă o dată modul în care potențialul inteligenței artificiale poate îmbunătăți dinamica dispozitivelor mobile și face viața mai ușoară pentru utilizatori.
Deoarece fără îndoială, o dinamică similară în dispozitivul nostru mobil ar economisi o mulțime de dureri de cap și timp încercând să editați aceste distorsiuni în fotografii.