Спор вокруг предупреждения о безопасности Gmail: что на самом деле произошло? Спор вокруг предупреждения о безопасности Gmail: что на самом деле произошло?

Практически все крупные технологические (и не только технологические) СМИ недавно сообщили о предупреждении безопасности, которое было разослано — или не было — паре миллиардов пользователей Gmail с призывом сменить пароли. Короче говоря, утечка действительно была, и Google это признала, но компания утверждает, что злоумышленники получили лишь некоторые бизнес-контактные данные и имена, а не учетные данные Gmail. Однако это не значит, что вам не следует менять пароль к Gmail: делать это лучше регулярно, для подстраховки, вне зависимости от того, включена у вас 2FA или нет.

Хотите узнать всю историю? Читайте дальше.

Реальная утечка, из-за которой появились сообщения о предупреждении по паролям Gmail

В начале 2025 года хакерская группа ShinyHunters взломала одну из баз данных Salesforce компании Google и похитила информацию о неопределённом (по крайней мере, нам не удалось найти цифру) количестве пользователей. Как уже упоминалось выше, это были бизнес-контактные данные и имена.

Google признала утечку, уточнив, что она произошла через расширение Salesforce. К началу августа 2025 года компания завершила уведомление пострадавших пользователей.

Кажется, однако, что СМИ неверно интерпретировали ситуацию: появились сообщения, связывавшие этот инцидент с якобы массовым оповещением от Google, в котором призывали пользователей Gmail — всех более чем 2,5 миллиарда — сменить пароли.

Сообщения стали вирусными и заставили компанию отреагировать: 1 сентября 2025 года Google опубликовала в блоге Workspace пост под названием “Средства защиты Gmail надёжны и эффективны, а заявления о крупном предупреждении по безопасности Gmail — ложны”. В публикации компания опровергает, что когда-либо рассылала такое предупреждение, называя соответствующие утверждения неточными. Кроме того, Google настаивает, что их “средства защиты продолжают блокировать более 99,9% попыток фишинга и распространения вредоносного ПО, не допуская их до пользователей.”

Как защититься от фишинга и вишинга?

Мы уже обсуждали эти типы атак в статье “Социальная инженерия во взломе: распространённые методы и защита”; если вы её пропустили, рекомендуем прочитать — там много полезной информации. Кратко повторим часть материала: вот здравые способы защитить себя от подобных злонамеренных попыток.

Доверяйте, но проверяйте; а лучше — не доверяйте. Если письмо хоть немного вызывает подозрение — нежданная реклама или неожиданное предложение от знакомого — не переходите по ссылкам в нём.

Включайте двухфакторную аутентификацию везде, где это возможно, и выбирайте приложения-аутентификаторы вместо SMS. Подумайте о переходе на passkeys, это всё равно произойдёт рано или поздно.

Используйте менеджеры паролей, правильно настройте брандмауэр, подумайте о подписке на VPN и настройте резервное копирование — в целом следуйте советам из статьи “Кибербезопасность для всех: лучшие практики и инструменты.”

Берегите себя!

Другие публикации автора

Наконец-то, суперкомпьютер ИИ для домашнего использования
Статья
Наконец-то, суперкомпьютер ИИ для домашнего использования
Компания Nvidia начала продажи DGX Spark — "персонального ИИ-суперкомпьютера", способного запускать модели с 200 млрд параметров. Цена — $3,999.
Как установить Windows 11 на неподдерживаемый ПК
Статья
Как установить Windows 11 на неподдерживаемый ПК
Поддержка Windows 10 заканчивается 14 октября 2025 года. Если ваш ПК не поддерживается, читайте дальше, чтобы узнать, как всё равно перейти на Windows 11.
Microsoft удаляет один из способов установки Windows 11 с локальной учетной записью.
Статья
Microsoft удаляет один из способов установки Windows 11 с локальной учетной записью.
Вскоре при установке Windows 11 потребуется подключённая учётная запись Microsoft, что закроет лазейки для установок только с локальной учётной записью. Однако время ещё есть.
Ветвление диалогов и похожие инструменты в популярных системах ИИ
Статья
Ветвление диалогов и похожие инструменты в популярных системах ИИ
Большие языковые модели (LLM), то есть системы ИИ, могут ускорить тематические исследования на несколько порядков. Разветвление диалога делает процесс ещё более гибким.