peft

Форк
0

README.md

Fine-tuning for semantic segmentation using LoRA and 🤗 PEFT

Open In Colab

We provide a notebook (semantic_segmentation_peft_lora.ipynb) where we learn how to use LoRA from 🤗 PEFT to fine-tune an semantic segmentation by ONLY using 14%% of the original trainable parameters of the model.

LoRA adds low-rank "update matrices" to certain blocks in the underlying model (in this case the attention blocks) and ONLY trains those matrices during fine-tuning. During inference, these update matrices are merged with the original model parameters. For more details, check out the original LoRA paper.

Использование cookies

Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.

Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.

Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.