Soft stacking to technika stosowana w uczeniu maszynowym, szczególnie w zadaniach predykcyjnych, polegająca na łączeniu predykcji wielu modeli w celu uzyskania lepszej dokładności niż w przypadku pojedynczego modelu. W odróżnieniu od hard stacking, gdzie predykcje są binarne lub kategoryczne, soft stacking wykorzystuje prawdopodobieństwa lub wartości ciągłe generowane przez modele bazowe. Proces polega na trenowaniu modeli pierwszego poziomu (np. drzew decyzyjnych, sieci neuronowych), których wyniki są następnie używane jako cechy wejściowe dla modelu drugiego poziomu (meta-modelu), np. regresji logistycznej. Kluczowe jest zapewnienie różnorodności modeli bazowych, co zwiększa ogólność i zmniejsza ryzyko przeuczenia. Soft stacking wymaga starannego doboru hiperparametrów i walidacji krzyżowej, aby uniknąć nadmiernego dopasowania. Technika ta jest popularna w konkursach data science, takich jak Kaggle, ze względu na swoją skuteczność w poprawie wyników predykcji. #SoftStacking