Интернет-издание о бизнесе, стартапах и IT-технологиях

Популярные теги:
Главная страница / Читать / Новости / Астрономы почти исключили столкновение с астероидом 2024 YR4

Астрономы почти исключили столкновение с астероидом 2024 YR4

Увеличилась вероятность столкновения Земли с астероидом

Катастрофа в 2032 году почти отменяется. Новые наблюдения за астероидом 2024 YR4 с помощью европейского телескопа VLT и других обсерваторий практически полностью исключили возможность столкновения этого астероида с нашей планетой.

Еще неделю назад астрономы оценивали вероятность столкновения космического объекта с Землей в 3%. Однако дополнительные исследования понизили риск катастрофы до тысячных долей процента.

Астероид 2024 YR4 диаметром от 40 до 90 метров, был обнаружен в конце декабря прошлого года на орбите, которая может привести к столкновению с Землей 22 декабря 2032 года. Из-за своих размеров и вероятности столкновения астероид быстро занял первое место в списке серьезных рисков в каталоге Европейского космического агентства (ЕКА).

Наблюдения за 2024 YR4 в середине января велись с помощью телескопа VLT ESO, что позволило астрономам получить важнейшие данные, необходимые для более точного расчета его орбиты. В сочетании с данными, полученными от других обсерваторий, учеными был вынесен вердикт о крайне малой опасности столкновения.

На данный момент вероятность столкновения, по данным Координационного центра ЕКА по объектам, сближающимся с Землей, составляет около 0,001 %, и астероид больше не входит в список рисков ЕКА.

Поделиться статьей в соц. сетях

Share on telegram
Share on twitter
Share on facebook
Share on whatsapp

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Вредоносные LLM стали популярны у киберпреступников

Вредоносные LLM увеличивают возможности киберпреступников – мошенничество с помощью искусственного интеллекта встречается все чаще. Более того, ИИ-технологии мошенничества оказываются очень эффективными. Лабораторное исследование, опубликованное в Harvard Business Review, показало, что сгенерированные ИИ фишинговые письма успешно обманывают жертв в 60% случаев. Это высокая отдача, учитывая, что практически всю работу берут на себя вредоносные LLM. Привлекательность нейросетей для киберпреступников очевидна, как и то, почему широкая публика использует LLM и другие инструменты ИИ: они могут генерировать убедительный контент в больших масштабах с минимальными затратами. – Мы знаем, что социальная инженерия в любом случае является одной из самых эффективных форм атаки, а не вредоносный […]

Вредоносные LLM увеличивают возможности киберпреступников – мошенничество с помощью искусственного интеллекта встречается все чаще. Более того, ИИ-технологии мошенничества оказываются очень эффективными. Лабораторное исследование, опубликованное в Harvard Business Review, показало, что сгенерированные ИИ фишинговые письма успешно обманывают жертв в 60% случаев. Это высокая отдача, учитывая, что практически всю работу берут на себя вредоносные LLM.

Привлекательность нейросетей для киберпреступников очевидна, как и то, почему широкая публика использует LLM и другие инструменты ИИ: они могут генерировать убедительный контент в больших масштабах с минимальными затратами.

– Мы знаем, что социальная инженерия в любом случае является одной из самых эффективных форм атаки, а не вредоносный код. Неудивительно, что LLM в первую очередь используются для создания более эффективных версий обмана и мошенничества, – говорит профессор кибербезопасности из Университета Суррея Алан Вудворд.

Специалисты компании Kela сообщают, что за последний год обсуждение вредоносных инструментов ИИ в даркнете выросло на 200%.

– Когда-то, чтобы стать киберпреступником, нужны были навыки, знания и умение кодить. Теперь же все, что вам нужно, – это подходящая ИИ-модель и дурные намерения, – говорит главный технический директор компании ThreatLocker Роб Аллен.

Только некоторые основные LLM имеют встроенные средства защиты от вредоносного использования, а LLM в темной паутине часто задействуют модели с открытым исходным кодом без защитных средств или взломанные версии коммерческих.

Одна из наиболее популярных вредоносных LLM сегодня – это GhostGPT. Эта модель может генерировать фишинговые письма и подсказки о вредоносном ПО. Она также может похвастаться быстрыми ответами и отсутствием журналов данных, что минимизирует цифровой след для правоохранительных органов. В ходе тестирования Abnormal Security заставила её менее чем за минуту создать убедительное фишинговое письмо.

Автор

Теги статьи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *