У нас сильная команда (ex Nvidia, Google, Amazon, Samsung AI, Lyft, Mail.Ru, VK, PicsArt, VisionLabs), и мы ищем опытных Computer Vision Engineer'ов, готовых участвовать в создании FaceSwap-технологии и решать другие интересные задачи.
Myna Labs — стартап, разрабатывающий технологии машинного обучения для развлекательных продуктов.
Подняли денег от фонда, который инвестировал в Looksery и AI Factory (приобретены компанией Snap за $150 млн и $166 млн соотвественно). Также получили грант от Nvidia Inception.
Запустили saidit.app — развлекательное мобильное приложение для записи видео с аудио-фильтрами, которые позволяют говорить голосом другого человека (MSQRD для аудио)
Сейчас разрабатываем технологию real-time deep-fake (video + audio), которая будет полностью работать на телефоне и имеем все шансы сделать это первыми🤘
🤓 Задачи
Разрабатывать face swap (дип фейки, mobile, near real-time)
Ужимать модели (квантизация, дистилляция и прочее), оптимизировать инференс и доводить все это добро до телефона (таргет платформа iOS / CoreML). Дальше подхватывают iOS разработчики
Читать, понимать, воспроизводить статьи по компьютерному зрению (как генеративные, так и дискриминативные модели) и не грустить когда они не заводятся
👩💻 Требования
Сильные навыки имплементации, тренировки и отладки моделей (PyTorch)
Опыт работы в Computer Vision:
Image and video generation (GANs, VAEs)Face alignment, Face swapДетекция, сегментация, классификация
Image and video generation (GANs, VAEs)
Face alignment, Face swap
Детекция, сегментация, классификация
Читать последние статьи с конференций и понимать, что из всего множества стоит попробовать заимплементить: CVPR, ECCV, ICCV, NeurIPS, arXiv 😊
Проактивность. Надо самому уметь оценивать текущий результат. Как с помощью известных model-based метрик вроде FID, так и с помощью классического: поспрашивал людей <-> залил результаты на Толоку <-> выдумал новую метрику, которая хорошо коррелирует с качеством ожидаемых результатов