где в случае негруппированной выборки <math>P_i=f(x_i,\theta)</math>, а в случае группированной — <math>P_i=\left( \int\limits_{x_{i-1}}^{x_i} f(x,\theta) \, \mathrm{d} x \right)^{n_i}</math>
М-оценки — есть некое обобщение ОМП. Они определяются аналогично одним из соотношений:
то не представляет большого труда получить выражение функции влияния для M-оценок:
<math>IF=\frac{-\phi(x)} {\int \phi'_{\theta} (x) \, \mathrm{d} F}</math>
Указанное выражение позволяет сделать вывод о том, что M-оценки эквивалентны с точностью до ненулевого множителя-константы.
Несложно проверить, что для ОМП стандартного нормального закона распределения <math>\mathcal{N}(0,1)</math> функции влияния <math>IF</math> параметра сдвига и параметра масштаба выглядят соответственно:
<math> IF = x, \quad IF = \frac{1}{2} \; x^2 - \frac{1}{2}</math>
Эти функции неограничены, а это значит, что ОМП не является робастной в терминах B-робастности.
Для того, чтобы это исправить, M-оценки искусственно ограничивают, а значит и ограничивают её <math>IF</math> (см. выражение <math>IF</math> для M-оценок), устанавливая верхний барьер на влияние резко выделяющихся (далеко отстоящих от предполагаемых значений параметров) наблюдений. Делается это введением так называемых усечённых M-оценок, определяемых выражением:
<math>\phi_b (z)=\left\{ \begin{array}{lr}
\phi(b), & b < z \\
\phi(z), & -b < z \leqslant b \\
\phi(-b), & z \leqslant -b
\end{array} \right.</math>
где <math>z=\frac{x-\theta}{S}</math>, <math>\theta</math> и <math>S</math> — оценки параметров сдвига и масштаба соответственно.
Среди усечённых M-оценок оптимальными с точки зрения B-робастности являются усечённые ОМП.