|
|
rss_habr
Введение в библиотеку Transformers и платформу Hugging FaceПятница, 09 Декабря 2022 г. 19:23 (ссылка)
Библиотека Transformers предоставляет доступ к огромному кол-ву современных предобученных моделей глубокого обучения. В основном основаных на архитектуре трансформеров. Модели решают весьма разнообразный спектр задач: NLP, CV, Audio, Multimodal, Reinforcement Learning, Time Series. В этой статье пройдемся по основным ее возможностям и попробуем их на правктике. Читать далееhttps://habr.com/ru/post/704592/?utm_source=habrahabr&utm_medium=rss&utm_campaign=704592
rss_habr
Открытые данные. Как сматчить несматчиваемое или Нейросеть вам в помощьПятница, 18 Ноября 2022 г. 12:59 (ссылка)
Привет, Точка на связи! Аналитик Никитин Александр и Head of ML Андрей Румянцев разобрались как с помощью машинного обучения смерджить несколько наборов данных из открытых источников и не сойти с ума. Open data, TF-IDF, faiss, pgvector, трансформеры и удивительное завершение нашего приключения — всё это под катом. Читать далееhttps://habr.com/ru/post/699490/?utm_source=habrahabr&utm_medium=rss&utm_campaign=699490
rss_habr
[Перевод] Экзибит, прокачай мой трансформер или Основные идеи по улучшению модели трансформера с 2018 по 2020 год (часть 2)Вторник, 18 Октября 2022 г. 10:01 (ссылка)
Представляю в блоге ЛАНИТ вторую часть моего пересказа статьи “A Survey of Transformers”, в которой приведены основные модификации архитектуры стандартного трансформера, придуманные за два года после ее появления. В первой части мы кратко вспомнили, из каких основных элементов и принципов состоит трансформер, и прошлись по различным схемам, меняющим или дополняющим механизм многоголового внимания. Целью большинства этих схем являлось преодоление квадратичной зависимости сложности вычислений от длины последовательности токенов, подающихся на вход. В этой части мы коснемся модификаций других элементов архитектуры, которые уже направлены или на улучшение способности сети извлекать больше информации из токенов, или применяются на большую длину последовательности, разделяя ее на сегменты. Читать далееhttps://habr.com/ru/post/684432/?utm_source=habrahabr&utm_medium=rss&utm_campaign=684432
rss_habr
Смогут ли нейросети заменить художников, копирайтеров и журналистов?Воскресенье, 09 Октября 2022 г. 13:22 (ссылка)
Всем привет! При создании Telegram-бота TurboText_bot и нейросетей для сервиса TurboText в тех-поддержку неоднократно приходили упрёки, что мы пытаемся отнять хлеб у людей. С публикацией недавней статьи на Хабре таких сообщений стало больше. Поэтому, как один из разработчиков "нейросетей-убийц" этих профессий, решил высказать своё мнение. Почему вообще люди боятся, что их заменят? Этот страх возник ещё в 1950-х, когда началось сильное индустриальное развитие. С появлением интернета и доступности алгоритмов машинного обучения этот страх начал только расти. Нейросети стали решать, кому давать кредит в банке, скидку в магазине, что должно быть в ленте новостей и рекомендациях к просмотру фильмов. Они по фотографии ваших лёгких могут предсказать наличие опухоли и Covid-19. На сегодняшний день каждый житель городов-миллионников сталкивается с более чем 1000 нейросетями за месяц, но люди по-прежнему боятся технологий. Почему? Читать далееhttps://habr.com/ru/post/692248/?utm_source=habrahabr&utm_medium=rss&utm_campaign=692248
rss_habr
Optimum Transformers: как экономить от 20к$ в год на NLPПонедельник, 04 Апреля 2022 г. 11:22 (ссылка)
|
LiveInternet.Ru |
Ссылки: на главную|почта|знакомства|одноклассники|фото|открытки|тесты|чат О проекте: помощь|контакты|разместить рекламу|версия для pda |