Link Search Menu Expand Document

Вопросы - минимум

В этом разделе представлены те вопросы, на которые следует знать ответ для того, чтобы слушать курс.

1. Можно ли умножить вектор на вектор?

  • Да, существует несколько способов это сделать - скалярное, векторное произведение.
  • Нет, вектор надо умножать на матрицу или число.
  • Нет, для векторов всё по-другому работает.
  • Да, умножаем каждую компоненту вектора друг на друга. Это называется скалярное
  • произведение.

2. Может ли норма матрицы быть равна нулю?

  • Да
  • Нет

3. Чему равна производная функции $f(x) = x^2$?

  • $2x$
  • $2x + const$
  • $\frac{x^3}{3}$
  • $\frac{x^3}{3} + const$
  • Невозможно взять производную.

4. Чему равна первообразная функции $f(x) = x^2$?

  • $2x$
  • $2x + const$
  • $\frac{x^3}{3}$
  • $\frac{x^3}{3} + const$
  • Невозможно вычислить первообразную.

5. Чему равно скалярное произведение векторов $(1, 1, 1)$ и $(2,3,4)$?

  • (1,2,1,3,1,4)
  • (1,2,3,4)
  • 9
  • (2,3,4)
  • Невозможно посчитать

6. Как посчитать определитель диагональной матрицы?

  • Сложить все диагональные элементы
  • Умножить все диагональные элементы
  • Он равен нулю
  • Определитель такой матрицы равен самой матрице.

Вопросы по существу курса.

Если вы уверенно знаете ответы на бОльшую часть предложенных ниже вопросов - вероятно, курс будет слишком легким для вас.

7. Является ли функция $f(x) = |x|$ выпуклой?

  • Да
  • Нет

8. Является ли множество симметричных положительно определенных квадратных матриц выпуклым?

  • Да
  • Нет

9. Чему равен субградиент функции $f(x) = \sin(x-4) + 2|x-4|$ в точке $x = 4$?

  • Функция не дифференцируема в этой точке, значит, субградиента не существует.
  • 4
  • Любое число в интервале [-2, 2]
  • Любое число в интервале [-1,1]
  • 0
  • Среди вариантов ответов нет верного
  • Что такое субградиент? (не знаю)
  • Любое число в интервале [-1, 3]

10. Вы обучаете нейросеть классифицировать изображения. Размер обучающей выборки 10000, размер батча 100. Сколько эпох вы сделаете, если произведете 1000 итераций стохастического градиентного спуска?

  • 1
  • 10
  • 100
  • 1000
  • 10000
  • Эпоха? (не знаю)
  • Среди вариантов ответов нет верного

11. Логистическая регрессия - это метод решения задачи

  • Классификации
  • Регрессии
  • Кластеризации

12. Пусть решение задачи линейного программирования существует. Симплекс метод в худшем случае:

  • Не сойдется
  • Сойдется полиномиально
  • Сойдется экспоненциально

13. Является ли задача оптимизации весов нейросети ResNet выпуклой?

  • Да
  • Нет
  • Данных задачи недостаточно

14. При оптимизации с помощью стохастического градиентного метода было бы хорошей идеей :

  • Уменьшать learning rate к концу обучения
  • Увеличивать learning rate к концу обучения
  • Не изменять learning rate

15. Истинно ли утверждение: “Добавление регуляризации Тихонова к выпуклой функции делает функцию сильно выпуклой”?

  • Да
  • Нет

16. Найдите минимальную константу Липшица функции $f(x) = Ax - b$, где $x$ - вектор размерности $n$, $А$ - вещественная матрица размерности$m \times n$, $b$ – вектор размерности $m$.

  • Функция не является Липшициевой.
  • $2 \Vert A \Vert$
  • $\Vert A^\top A\Vert$
  • $\Vert A\Vert $
  • $e^{\Vert A\Vert}$
  • $\Vert Ax - b\Vert$

17. Верно ли, что метод Ньютона сойдется для выпуклой функции, если запустить его из любой точки пространства.

  • Да
  • Нет

18. Пусть вычисление значения функции потерь вашей нейронной сети (forward pass) занимает время t. Сколько по времени займет вычисление градиентов по весам (backward pass). Выберите наиболее близкий ответ.

  • $t$
  • От $t$ до $3t$
  • $t^2$
  • $\frac{t}{2}$
  • $e^t$
  • От $0$ до $t$
  • От $0$ до $t^3$
  • $0$
  • $-t$
  • $N_{weights} \cdot t$

19. Верно ли утверждение: Nesterov momentum и Polyak Momentum одинаково ускоряют метод градиентного спуска для выпуклой функции с Липшициевым градиентом с точки зрения характера сходимости (с точностью до константного множителя)

  • Да
  • Нет, Nesterov momentum быстрее
  • Нет, Polyak momentum быстрее

20. Верно ли утверждение: В любой задаче оптимизации функции если точка $x_0$ является решением задачи оптимизации, то градиент оптимизируемой функции в точке $x_0$ равен 0. $\nabla f(x_0) = 0$?

  • Да
  • Нет