Классификатор патент
Подборка наиболее важных документов по запросу Классификатор патент (нормативно–правовые акты, формы, статьи, консультации экспертов и многое другое).
Статьи, комментарии, ответы на вопросы
Статья: Классификация сроков в патентном праве
(Балашова А.И.)
("Актуальные проблемы российского права", 2023, N 10)"Актуальные проблемы российского права", 2023, N 10
(Балашова А.И.)
("Актуальные проблемы российского права", 2023, N 10)"Актуальные проблемы российского права", 2023, N 10
Статья: Экономико-математическая модель расчета вознаграждения авторам служебных изобретений
(Алейников А.А.)
("ИС. Промышленная собственность", 2025, N 3)Для более точной оценки вклада автора в рамках степени значимости патента рекомендуется классифицировать патенты по трем уровням (см. табл. 2). Такой подход позволяет объективно учитывать вклад каждого автора и устанавливать его долю в общей прибыли.
(Алейников А.А.)
("ИС. Промышленная собственность", 2025, N 3)Для более точной оценки вклада автора в рамках степени значимости патента рекомендуется классифицировать патенты по трем уровням (см. табл. 2). Такой подход позволяет объективно учитывать вклад каждого автора и устанавливать его долю в общей прибыли.
Нормативные акты
Справочная информация: "Классификаторы, применяемые в Российской Федерации для целей налогообложения"
(Материал подготовлен специалистами КонсультантПлюс)Классификатор видов предпринимательской деятельности, в отношении которых законом субъекта Российской Федерации предусмотрено применение патентной системы налогообложения
(Материал подготовлен специалистами КонсультантПлюс)Классификатор видов предпринимательской деятельности, в отношении которых законом субъекта Российской Федерации предусмотрено применение патентной системы налогообложения
"Путеводитель по судебной практике. Патентование и оборот лекарственных средств в Российской Федерации: сборник"
(под общ. ред. Л.А. Новоселовой)
("РГ-Пресс", 2023)В результате государственной регистрации 23.06.2020 за номером РД0334792 договора об отчуждении исключительного права общество "Фармасил" с указанной даты является патентообладателем группы изобретений "Адсорбент и способ его получения" по патенту РФ N 2293744 (коды Международной патентной классификации: C08G 77/16 [2006.01], B01D 15/08 [2006.01]; заявка N 2005140169/04 от 22.12.2005).
(под общ. ред. Л.А. Новоселовой)
("РГ-Пресс", 2023)В результате государственной регистрации 23.06.2020 за номером РД0334792 договора об отчуждении исключительного права общество "Фармасил" с указанной даты является патентообладателем группы изобретений "Адсорбент и способ его получения" по патенту РФ N 2293744 (коды Международной патентной классификации: C08G 77/16 [2006.01], B01D 15/08 [2006.01]; заявка N 2005140169/04 от 22.12.2005).
Статья: Стратегическое патентование в фармацевтике, или Как охраняется "Оземпик"
(Халчанская А.С.)
("ИС. Промышленная собственность", 2025, N 4)Ключевые слова: патент на лекарственное средство, "Оземпик", патентные стратегии, вторичные патенты, классификация фармацевтических изобретений.
(Халчанская А.С.)
("ИС. Промышленная собственность", 2025, N 4)Ключевые слова: патент на лекарственное средство, "Оземпик", патентные стратегии, вторичные патенты, классификация фармацевтических изобретений.
Статья: Обзор методов NLP, используемых для распознавания текста с целью противодействия телефонному мошенничеству
(Коротеев М.В., Плешакова Е.С., Желябин Д.В.)
("Безопасность бизнеса", 2022, N 6)Bidirectional Encoder Representations from Transformers - языковая модель для решения задач НЛП, в частности автоматизации анализа запросов пользователей, разработанная Google. Трансферное изучение языковой модели, ее тонкая настройка находят свое отражение в современных исследованиях. Ансамблевая модель достигает F-меры 91,6%, превосходя классическую модель BERT благодаря наличию значительного текстового корпуса историй болезни пациентов из Китайской Народной Республики <10>. Точная настройка классической модели BERT для классификации патентов на основе набора данных USPTO-3M из 3 050 615 патентов, поданных Управлением по патентам, товарным знакам и интеллектуальной собственности Министерства торговли США, с использованием сигмоидной перекрестной энтропии, дает уровень точности 81,75%, что является превосходным показателем, к разработанному ранее алгоритму патентной классификации DeepPatent <11>. Классическое трансфертное обучение BERT было успешно применено в модели прогнозирования уязвимостей программного обеспечения под названием ExBERT <12>. Благодаря адаптации задачи Next Sentence Prediction, основанной на понимании связи между предложениями, модель TWiLBERT превосходит классическую MultilingualBERT, обеспечивая точность 91,27% против 49,41% в классической модели <13>. Отсутствие эталонных корпусов для научных статей, наличие размеченных корпусов и масштабирование коллекций документов остаются основной проблемой при решении задачи классификации текстов <14>. Используя нейронную сеть LTSM и токенизацию предложений на основе ScispaCy, оптимизированную для научных текстов, SciBERT достигает F-меры 90,01% по сравнению с классическим BERT 86,72% <15>.
(Коротеев М.В., Плешакова Е.С., Желябин Д.В.)
("Безопасность бизнеса", 2022, N 6)Bidirectional Encoder Representations from Transformers - языковая модель для решения задач НЛП, в частности автоматизации анализа запросов пользователей, разработанная Google. Трансферное изучение языковой модели, ее тонкая настройка находят свое отражение в современных исследованиях. Ансамблевая модель достигает F-меры 91,6%, превосходя классическую модель BERT благодаря наличию значительного текстового корпуса историй болезни пациентов из Китайской Народной Республики <10>. Точная настройка классической модели BERT для классификации патентов на основе набора данных USPTO-3M из 3 050 615 патентов, поданных Управлением по патентам, товарным знакам и интеллектуальной собственности Министерства торговли США, с использованием сигмоидной перекрестной энтропии, дает уровень точности 81,75%, что является превосходным показателем, к разработанному ранее алгоритму патентной классификации DeepPatent <11>. Классическое трансфертное обучение BERT было успешно применено в модели прогнозирования уязвимостей программного обеспечения под названием ExBERT <12>. Благодаря адаптации задачи Next Sentence Prediction, основанной на понимании связи между предложениями, модель TWiLBERT превосходит классическую MultilingualBERT, обеспечивая точность 91,27% против 49,41% в классической модели <13>. Отсутствие эталонных корпусов для научных статей, наличие размеченных корпусов и масштабирование коллекций документов остаются основной проблемой при решении задачи классификации текстов <14>. Используя нейронную сеть LTSM и токенизацию предложений на основе ScispaCy, оптимизированную для научных текстов, SciBERT достигает F-меры 90,01% по сравнению с классическим BERT 86,72% <15>.