nablaDFT

Форк
0
/
dimenetplusplus.yaml 
37 строк · 834.0 Байт
1
# Global variables
2
name: DimeNet++
3
dataset_name: dataset_train_tiny
4
max_steps: 1000000
5
job_type: train
6
pretrained: null # name of pretrained split or 'null'
7
ckpt_path: null # path to checkpoint for training resume or test run
8

9
# Datamodule parameters
10
root: ./datasets/nablaDFT/${.job_type}
11
batch_size: 32
12
num_workers: 8
13

14
# Devices
15
devices: [0]
16

17
# Trainer parameters
18
gradient_clip_algorithm: null
19
gradient_clip_val: null
20

21
# configs
22
defaults:
23
  - _self_
24
  - datamodule: nablaDFT_pyg.yaml  # dataset config
25
  - model: dimenetplusplus.yaml  # model config
26
  - callbacks: default.yaml  # pl callbacks config
27
  - loggers: wandb.yaml  # pl loggers config
28
  - trainer: train.yaml  # trainer config
29

30
# need this to set working dir as current dir
31
hydra:
32
  output_subdir: null
33
  run:
34
    dir: .
35
original_work_dir: ${hydra:runtime.cwd}
36

37
seed: 23
38

Использование cookies

Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.

Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.

Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.