Зміст:
- Ось як працює алгоритм Google
- Автоматична корекція з урахуванням контексту
- Можливо, ми побачимо цю технологію в Pixel
Дослідники з Google та MIT розробили алгоритм, який прагне виправити недоліки у ширококутних знімках.
Можливо, ви бачили, що обличчя деяких людей на фотографіях виглядають розтягнутими, злегка зім’ятими або з деяким спотворенням. Хоча це може бути пов’язано з нечисленними навичками фотографа, правда полягає в тому, що кадри з ширококутним об’єктивом з мобільних пристроїв зазвичай спричиняють спотворення об’єктів або людей, які знаходяться на краю зображення.
Існують різні методи, які намагаються вирішити цю проблему, але досі жоден з них не був настільки ефективним, як нова пропозиція Google. Хоча це може здатися легким виправленням, це не так, оскільки воно вимагає складного локального редагування, яке не впливає на решту об’єктів на фотографії.
Ось як працює алгоритм Google
Як пояснюють дослідники, цей алгоритм виявляє обличчя і створює сітку, яка дозволяє автоматично змінювати цей тип спотворень під час зйомки з широким кутом, як показано на зображенні:
Ми можемо визначити різницю при застосуванні цього алгоритму на наступних зображеннях. Це селфі, зроблене ширококутним об’єктивом із полем зору 97 °.
Перше зображення показує спотворення на гранях, а друге показує, як алгоритм відновив фігури обличчя до їх початкового стану.
Тобто, цей процес активується автоматично при використанні ширококутного об'єктива, надаючи цю особливу допомогу обличчям, але не викликаючи змін на решті зображення. І звичайно, швидкість цієї автоматичної корекції (близько 920 мілісекунд) унеможливлює виявлення користувачами.
За їх тестами, цей алгоритм успішно працює в діапазоні від 70 ° до 120 ° у полі зору, охоплюючи майже всі можливості мобільного пристрою.
Щоб скористатися потенціалом цього алгоритму, користувачеві не доведеться робити жодних дій чи активувати будь-який спеціальний режим камери. Ця функція буде реалізована автоматично лише тоді, коли вона виявить, що використовується ширококутний об'єктив.
Автоматична корекція з урахуванням контексту
Динаміку цього алгоритму ми можемо побачити у наступному відео:
Алгоритм автоматично коригує з урахуванням решти об’єктів, що з’являються на сцені, гарантуючи, що весь контекст фотографії збігається. Результати природні, без деталей, які показують, що фотографія взагалі була змінена.
Команда цього проекту поділилася фотогалереєю на Flickr, де показано, як різні методи вирішують цю проблему порівняно з динамікою їх алгоритму. Існує понад 160 фотографій (як та, яку ви бачите на початку статті), які допомагають нам оцінити результати.
Можливо, ми побачимо цю технологію в Pixel
Ми можемо сподіватися, що цей алгоритм або якась похідна технологія буде застосована до наступного покоління Pixel, оскільки команда, яка бере участь у цьому проекті, є співробітниками Google.
Однак у документі, яким вони поділились, вони нічого про це не згадали. Ці перші тести алгоритму в дії успішно показали ще раз, як потенціал штучного інтелекту може покращити динаміку мобільних пристроїв та полегшити життя користувачам.
Оскільки, без сумніву, наявність подібної динаміки на нашому мобільному пристрої заощадить багато головного болю та часу на спроби редагувати ці спотворення на фотографіях.