О проекте
Разрабатываем мобильное приложение для детекции объектов по фото с помощью камеры смартфона. Приложение использует YOLO-модели для определения объектов и их ключевых точек. Интеграция с веб-платформой для сохранения данных о найденных объектах. Приложение уже готово на 80%, осталось довести его до MVP, провести тестирование и выпустить в Google Play. Далее - поддержка и сопровождение.
Обязанности:
- Интегрировать TFLite модель в Android-приложение
- Настроить работу с камерой (CameraX) и препроцессинг изображений
- Доработать UI
- Провести тестирование на реальных устройствах
- Подготовить и выпустить приложение в Google Play
- Поддержка после релиза: багфиксы, обновления
Опыт разработки на Kotlin (2+ года)
Знание Jetpack Compose, CameraX, Room, Retrofit
Опыт интеграции ML-моделей (TFLite, ONNX Runtime) обязательно Понимание препроцессинга изображений для нейросетей Понимание архитектуры MVVM / MVI
Опыт публикации приложений в Google Play
Умение работать с Git, базовыми CI/CD
Будет плюсом:
Опыт работы с YOLO или аналогичными детекторами Знание OpenCV для обработки изображений
Опыт работы с геолокацией и картами
Условия:
Гибкий график, работа в удобное время
Интересный технический проект с использованием современных технологий Возможность участия в масштабировании после запуска
Оплата по договорённости (почасовая)
Готовы к быстрому старту, ищем разработчика уже на этой неделе.