Вопрос есть в коллекциях
Сопоставьте функцию активации с ее описанием:
A. ReLU (Rectified Linear Unit)
B. Сигмоидальная функция
C. Гиперболический тангенс
D. линейная функция с пороговой активацией. Оптимальна для большинства нейронных сетей
E. S-образная кривая, используется в выходном слое для бинарной классификации
F. S-образная функция, похожа на сигмоидальную функцию, но имеет значения в диапазоне [-1, 1]