pytorch

Форк
0
/
adagrad.pyi 
12 строк · 310.0 Байт
1
from .optimizer import Optimizer, ParamsT
2

3
class Adagrad(Optimizer):
4
    def __init__(
5
        self,
6
        params: ParamsT,
7
        lr: float = ...,
8
        lr_decay: float = ...,
9
        weight_decay: float = ...,
10
        initial_accumulator_value: float = ...,
11
        eps: float = ...,
12
    ) -> None: ...
13

Использование cookies

Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.

Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.

Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.