Dropout is a technique where randomly selected neurons are ignored during training. Вони є “збиті ззовні” randomly. Це означає, що їхня contribution до здійснення взаємного правління нейронів є тимчасово переміщена на передній прохід, і будь-який рівень updates не може бути застосований до neurón на backward pass.
Dropout is a regularization technique for reducing overfitting in neural networks by preventing complex co-adaptations on training data. Це вельми ефективний спосіб розробки моделювання за допомогою neural networks. Терм "dropout" refers to dropping out units (both hidden and visible) в neural network.
Порушення регулярності є технологією, щоб запобігти neural networks overfitting. Dropout works by randomly disabling neurons and their corresponding connections. Це покликане мережу від переведення до себе на один нейрон і прагнення всіх нейронів до навчання до загального стану.