@@ -15,7 +15,7 @@ datasets:
15
15
key : ' torchvision.transforms.RandomResizedCrop'
16
16
init :
17
17
kwargs :
18
- size : &input_size [224, 224 ]
18
+ size : &input_size [299, 299 ]
19
19
- !import_call
20
20
key : ' torchvision.transforms.RandomHorizontalFlip'
21
21
init :
@@ -44,7 +44,7 @@ datasets:
44
44
key : ' torchvision.transforms.Resize'
45
45
init :
46
46
kwargs :
47
- size : 256
47
+ size : 327
48
48
- !import_call
49
49
key : ' torchvision.transforms.CenterCrop'
50
50
init :
@@ -68,6 +68,7 @@ models:
68
68
weights : !getattr [*teacher_weights, 'IMAGENET1K_V1']
69
69
src_ckpt :
70
70
student_model :
71
+ repo_or_dir : ' yoshitomo-matsubara/sc2-benchmark'
71
72
key : &student_model_key 'custom_inception_v3'
72
73
_weights : &student_weights !import_get
73
74
key : ' torchvision.models.inception.Inception_V3_Weights'
@@ -131,11 +132,11 @@ train:
131
132
student :
132
133
forward_proc : ' forward_batch_only'
133
134
adaptations :
134
- sequential : ['bottleneck ']
135
+ sequential : ['bottleneck_layer ']
135
136
frozen_modules : []
136
137
forward_hook :
137
138
input : []
138
- output : ['bottleneck ']
139
+ output : ['bottleneck_layer ']
139
140
wrapper : ' DistributedDataParallel'
140
141
requires_grad : True
141
142
optimizer :
@@ -161,7 +162,7 @@ train:
161
162
kwargs :
162
163
input :
163
164
is_from_teacher : False
164
- module_path : ' bottleneck '
165
+ module_path : ' bottleneck_layer '
165
166
io : ' output'
166
167
target :
167
168
is_from_teacher : True
0 commit comments