Pytorchvideo Stack espera que cada tensor tenga el mismo tamaño, pero obtuvo [89088] en la entrada 0 y [88064] en la entrada 1
# Add decode_audio=False to the val_dataset
# Before:
val_dataset = pytorchvideo.data.Kinetics(
data_path=os.path.join(self._DATA_PATH, "val.csv"),
clip_sampler=pytorchvideo.data.make_clip_sampler("uniform",
self._CLIP_DURATION),
transform=val_transform
)
# After
val_dataset = pytorchvideo.data.Kinetics(
data_path=os.path.join(self._DATA_PATH, "val.csv"),
clip_sampler=pytorchvideo.data.make_clip_sampler("uniform",
self._CLIP_DURATION),
decode_audio=False,
transform=val_transform
)
Jittery Jay