当前位置: 首页 > news >正文

【HuggingFace】Transformers(V4.34.0 稳定)支持的模型

       Transformer 4.43.40 版本是自然语言处理领域的一个重要工具包,为开发者提供了丰富的预训练模型资源,可以用于各种文本处理任务。在这个版本中,Transformer 支持了众多模型,每个模型都具有不同的优势和适用领域。下面是一个 Transformer 4.43.40 版本所支持的所有模型的目录,让您能够更好地了解这一工具包的功能和用途。

🚗🚓🚕🛺🚙🛻🚌🚐🚎🚑🚒🚚🚗🚓🚕🛺🚙🛻🚌🚐🚎🚑🚒🚚

  1. ALBERT(来自Google研究和芝加哥丰田技术研究所)与论文ALBERT:轻量级BERT用于自监督学习语言表示一起发布,作者为Zhenzhong Lan,Mingda Chen,Sebastian Goodman,Kevin Gimpel,Piyush Sharma,Radu Soricut。
  2. AltCLIP(来自BAAI)与Chen、Zhongzhi和Liu、Guang和Zhang、Bo-Wen和Ye、Fulong和Yang、Qinghong和Wu、Ledell的论文AltCLIP:修改CLIP中的语言编码器以扩展语言能力一起发布。
  3. Audio Spectrogram Transformer(来自MIT)与论文AST:Audio Spectrogram Transformer by Yuan Gong,Yu-An Chung,James Glass一起发布。
  4. BART(来自Facebook)与论文BART:Denoising Sequence-to-Sequence Pre-training for Natural Language Generation,Translation,and Comprehension by Mike Lewis,Yinhan Liu,Naman Goyal,Marjan Ghazvininejad,Abdelrahman Mohamed,Omer Levy,Ves Stoyanov和Luke Zettlemoyer一起发布。
  5. BARThez(来自École polytechnique)与论文BARThez:a Skilled Pretrained French Sequence-to-Sequence Model by Moussa Kamal Eddine,Antoine J.-P. Tixier,Michalis Vazirgiannis一起发布。
  6. BARTpho(来自VinAI Research)与论文BARTpho:Pre-trained Sequence-to-Sequence Models for Vietnamese by Nguyen Luong Tran,Duong Minh Le和Dat Quoc Nguyen一起发布。
  7. BEiT(来自Microsoft)与论文BEiT:BERT Pre-Training of Image Transformers by Hangbo Bao,Li Dong,Furu Wei一起发布。
  8. BERT(来自Google)与论文BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding by Jacob Devlin,Ming-Wei Chang,Kenton Lee和Kristina Toutanova一起发布。
  9. BERT For Sequence Generation(来自Google)与论文Leveraging Pre-trained Checkpoints for Sequence Generation Tasks by Sascha Rothe,Shashi Narayan,Aliaksei Severyn一起发布。
  10. BERTweet(来自VinAI Research)与论文BERTweet:A pre-trained language model for English Tweets by Dat Quoc Nguyen,Thanh Vu和Anh Tuan Nguyen一起发布。
  11. BigBird-Pegasus(来自Google Research)与论文Big Bird:Transformers for Longer Sequences by Manzil Zaheer,Guru Guruganesh,Avinava Dubey,Joshua Ainslie,Chris Alberti,Santiago Ontanon,Philip Pham,Anirudh Ravula,Qifan Wang,Li Yang,Amr Ahmed一起发布。
  12. BigBird-RoBERTa(来自Google Research)与论文Big Bird:Transformers for Longer Sequences by Manzil Zaheer,Guru Guruganesh,Avinava Dubey,Joshua Ainslie,Chris Alberti,Santiago Ontanon,Philip Pham,Anirudh Ravula,Qifan Wang,Li Yang,Amr Ahmed一起发布。
  13. BioGpt(来自Microsoft Research AI4Science)与论文BioGPT:generative pre-trained transformer for biomedical text generation and mining by Renqian Luo,Liai Sun,Yingce Xia,Tao Qin,Sheng Zhang,Hoifung Poon和Tie-Yan Liu一起发布。
  14. BiT(来自Google AI)与论文Big Transfer(BiT):General Visual Representation Learning by Alexander Kolesnikov,Lucas Beyer,Xiaohua Zhai,Joan Puigcerver,Jessica Yung,Sylvain Gelly,Neil Houlsby一起发布。
  15. Blenderbot(来自Facebook)与论文Recipes for building an open-domain chatbot by Stephen Roller,Emily Dinan,Naman Goyal,Da Ju,Mary Williamson,Yinhan Liu,Jing Xu,Myle Ott,Kurt Shuster,Eric M. Smith,Y-Lan Boureau,Jason Weston一起发布。
  16. BlenderbotSmall(来自Facebook)与论文Recipes for building an open-domain chatbot by Stephen Roller,Emily Dinan,Naman Goyal,Da Ju,Mary Williamson,Yinhan Liu,Jing Xu,Myle Ott,Kurt Shuster,Eric M. Smith,Y-Lan Boureau,Jason Weston一起发布。
  17. BLIP(来自Salesforce)与论文BLIP:Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation by Junnan Li,Dongxu Li,Caiming Xiong,Steven Hoi一起发布。
  18. BLOOM(来自BigScience workshop)由BigScience Workshop发布。
  19. BORT(来自Alexa)与论文Optimal Subarchitecture Extraction For BERT by Adrian de Wynter and Daniel J. Perry一起发布。
  20. ByT5(来自Google Research)与论文ByT5:Towards a token-free future with pre-trained byte-to-byte models by Linting Xue,Aditya Barua,Noah Constant,Rami Al-Rfou,Sharan Narang,Mihir Kale,Adam Roberts,Colin Raffel一起发布。
  21. CamemBERT(来自Inria/Facebook/Sorbonne)与论文CamemBERT:a Tasty French Language Model by Louis Martin,Benjamin Muller,Pedro Javier Ortiz Suárez*,Yoann Dupont,Laurent Romary,Éric Villemonte de la Clergerie,Djamé Seddah和Benoît Sagot一起发布。
  22. CANINE(来自Google Research)与论文CANINE:Pre-training an Efficient Tokenization-Free Encoder for Language Representation by Jonathan H. Clark,Dan Garrette,Iulia Turc,John Wieting一起发布。
  23. Chinese-CLIP(来自OFA-Sys)与论文Chinese CLIP:Contrastive Vision-Language Pretraining in Chinese by An Yang,Junshu Pan,Junyang Lin,Rui Men,Yichang Zhang,Jingren Zhou和Chang Zhou一起发布。
  24. CLIP(来自OpenAI)与论文Learning Transferable Visual Models From Natural Language Supervision by Alec Radford,Jong Wook Kim,Chris Hallacy,Aditya Ramesh,Gabriel Goh,Sandhini Agarwal,Girish Sastry,Amanda Askell,Pamela Mishkin,Jack Clark,Gretchen Krueger,Ilya Sutskever一起发布。
  25. CLIPSeg(来自Göttingen大学)与论文Image Segmentation Using Text and Image Prompts by Timo Lüddecke and Alexander Ecker一起发布。
  26. CodeGen(来自Salesforce)与论文A Conversational Paradigm for Program Synthesis by Erik Nijkamp,Bo Pang,Hiroaki Hayashi,Lifu Tu,Huan Wang,Yingbo Zhou,Silvio Savarese,Caiming Xiong一起发布。
  27. Conditional DETR(来自Microsoft Research Asia)与论文Conditional DETR for Fast Training Convergence by Depu Meng,Xiaokang Chen,Zejia Fan,Gang Zeng,Houqiang Li,Yuhui Yuan,Lei Sun,Jingdong Wang一起发布。
  28. ConvBERT(来自YituTech)与论文ConvBERT:Improving BERT with Span-based Dynamic Convolution by Zihang Jiang,Weihao Yu,Daquan Zhou,Yunpeng Chen,Jiashi Feng,Shuicheng Yan一起发布。
  29. ConvNeXT(来自Facebook AI)与论文A ConvNet for the 2020s by Zhuang Liu,Hanzi Mao,Chao-Yuan Wu,Christoph Feichtenhofer,Trevor Darrell,Saining Xie一起发布。
  30. ConvNeXTV2(来自Facebook AI)与论文ConvNeXt V2:Co-designing and Scaling ConvNets with Masked Autoencoders by Sanghyun Woo,Shoubhik Debnath,Ronghang Hu,Xinlei Chen,Zhuang Liu,In So Kweon,Saining Xie一起发布。
  31. CPM(来自清华大学)与论文CPM:A Large-scale Generative Chinese Pre-trained Language Model by Zhengyan Zhang, Xu Han, Hao Zhou, Pei Ke, Yuxian Gu, Deming Ye, Yujia Qin, Yusheng Su, Haozhe Ji, Jian Guan, Fanchao Qi, Xiaozhi Wang, Yanan Zheng, Guoyang Zeng, Huanqi Cao, Shengqi Chen, Daixuan Li, Zhenbo Sun, Zhiyuan Liu, Minlie Huang, Wentao Han, Jie Tang, Juanzi Li, Xiaoyan Zhu, Maosong Sun一起发布。
  32. CTRL(来自Salesforce)与论文CTRL:A Conditional Transformer Language Model for Controllable Generation by Nitish Shirish Keskar, Bryan McCann, Lav R. Varshney, Caiming Xiong and Richard Socher一起发布。
  33. CvT(来自Microsoft)与论文CvT:Introducing Convolutions to Vision Transformers by Haiping Wu, Bin Xiao, Noel Codella, Mengchen Liu, Xiyang Dai, Lu Yuan, Lei Zhang一起发布。
  34. Data2Vec(来自Facebook)与论文Data2Vec:A General Framework for Self-supervised Learning in Speech, Vision and Language by Alexei Baevski, Wei-Ning Hsu, Qiantong Xu, Arun Babu, Jiatao Gu, Michael Auli一起发布。
  35. DeBERTa(来自Microsoft)与论文DeBERTa:Decoding-enhanced BERT with Disentangled Attention by Pengcheng He, Xiaodong Liu, Jianfeng Gao, Weizhu Chen一起发布。
  36. DeBERTa-v2(来自Microsoft)与论文DeBERTa:Decoding-enhanced BERT with Disentangled Attention by Pengcheng He,Xiaodong Liu,Jianfeng Gao,Weizhu Chen一起发布。
  37. Decision Transformer(来自Berkeley/Facebook/Google)与论文Decision Transformer:Reinforcement Learning via Sequence Modeling by Lili Chen,Kevin Lu,Aravind Rajeswaran,Kimin Lee,Aditya Grover,Michael Laskin,Pieter Abbeel,Aravind Srinivas,Igor Mordatch一起发布。
  38. Deformable DETR(来自SenseTime Research)与论文Deformable DETR:Deformable Transformers for End-to-End Object Detection by Xizhou Zhu,Weijie Su,Lewei Lu,Bin Li,Xiaogang Wang,Jifeng Dai一起发布。
  39. DeiT(来自Facebook)与论文Training data-efficient image transformers & distillation through attention by Hugo Touvron,Matthieu Cord,Matthijs Douze,Francisco Massa,Alexandre Sablayrolles,Hervé Jégou一起发布。
  40. DETR(来自Facebook)与论文End-to-End Object Detection with Transformers by Nicolas Carion,Francisco Massa,Gabriel Synnaeve,Nicolas Usunier,Alexander Kirillov,Sergey Zagoruyko一起发布。
  41. DialoGPT(来自Microsoft Research)与论文DialoGPT:Large-Scale Generative Pre-training for Conversational Response Generation by Yizhe Zhang,Siqi Sun,Michel Galley,Yen-Chun Chen,Chris Brockett,Xiang Gao,Jianfeng Gao,Jingjing Liu,Bill Dolan一起发布。
  42. DiNAT(来自SHI Labs)与论文Dilated Neighborhood Attention Transformer by Ali Hassani and Humphrey Shi一起发布。
  43. DistilBERT(来自HuggingFace),与论文DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter by Victor Sanh, Lysandre Debut and Thomas Wolf 一起发布。该方法也被应用于将GPT2压缩为DistilGPT2、RoBERTa压缩为DistilRoBERTa、Multilingual BERT压缩为DistilmBERT以及德语版本的DistilBERT。
  44. DiT(来自Microsoft Research)与论文DiT: Self-supervised Pre-training for Document Image Transformer by Junlong Li, Yiheng Xu, Tengchao Lv, Lei Cui, Cha Zhang, Furu Wei一起发布。
  45. Donut(来自NAVER),与论文OCR-free Document Understanding Transformer by Geewook Kim, Teakgyu Hong, Moonbin Yim, Jeongyeon Nam, Jinyoung Park, Jinyeong Yim, Wonseok Hwang, Sangdoo Yun, Dongyoon Han, Seunghyun Park一起发布。
  46. DPR(来自Facebook)与论文Dense Passage Retrieval for Open-Domain Question Answering by Vladimir Karpukhin,Barlas Oğuz,Sewon Min,Patrick Lewis,Ledell Wu,Sergey Edunov,Danqi Chen和Wen-tau Yih一起发布。
  47. DPT(来自Intel Labs)与论文Vision Transformers for Dense Prediction by René Ranftl,Alexey Bochkovskiy,Vladlen Koltun一起发布。
  48. ELECTRA(来自Google Research/Stanford University)与论文ELECTRA:Pre-training text encoders as discriminators rather than generators by Kevin Clark,Minh-Thang Luong,Quoc V. Le,Christopher D. Manning一起发布。
  49. EncoderDecoder(来自Google Research)与论文Leveraging Pre-trained Checkpoints for Sequence Generation Tasks by Sascha Rothe,Shashi Narayan,Aliaksei Severyn一起发布。
  50. ERNIE(来自Baidu)与论文ERNIE:Enhanced Representation through Knowledge Integration by Yu Sun,Shuohuan Wang,Yukun Li,Shikun Feng,Xuyi Chen,Han Zhang,Xin Tian,Danxiang Zhu,Hao Tian,Hua Wu一起发布。
  51. ESM(来自Meta AI)是transformer蛋白质语言模型。ESM-1b与论文Biological structure and function emerge from scaling unsupervised learning to 250 million protein sequences by Alexander Rives,Joshua Meier,Tom Sercu,Siddharth Goyal,Zeming Lin,Jason Liu,Demi Guo,Myle Ott,C. Lawrence Zitnick,Jerry Ma和Rob Fergus一起发布。ESM-1v与论文Language models enable zero-shot prediction of the effects of mutations on protein function by Joshua Meier,Roshan Rao,Robert Verkuil,Jason Liu,Tom Sercu和Alexander Rives一起发布。ESM-2和ESMFold与论文Language models of protein sequences at the scale of evolution enable accurate structure prediction by Zeming Lin,Halil Akin,Roshan Rao,Brian Hie,Zhongkai Zhu,Wenting Lu,Allan dos Santos Costa,Maryam Fazel-Zarandi,Tom Sercu,Sal Candido和Alexander Rives一起发布。
  52. FLAN-T5(来自Google AI)在google-research/t5x库中发布。作者包括Hyung Won Chung,Le Hou,Shayne Longpre,Barret Zoph,Yi Tay,William Fedus,Eric Li,Xuezhi Wang,Mostafa Dehghani,Siddhartha Brahma,Albert Webson,Shixiang Shane Gu,Zhuyun Dai,Mirac Suzgun,Xinyun Chen,Aakanksha Chowdhery,Sharan Narang,Gaurav Mishra,Adams Yu,Vincent Zhao,Yanping Huang,Andrew Dai,Hongkun Yu,Slav Petrov,Ed H. Chi,Jeff Dean,Jacob Devlin,Adam Roberts,Denny Zhou,Quoc V. Le和Jason Wei。
  53. FlauBERT(来自CNRS)与论文FlauBERT:Unsupervised Language Model Pre-training for French by Hang Le,Loïc Vial,Jibril Frej,Vincent Segonne,Maximin Coavoux,Benjamin Lecouteux,Alexandre Allauzen,Benoît Crabbé,Laurent Besacier和Didier Schwab一起发布。
  54. FLAVA(来自Facebook AI)与论文FLAVA:A Foundational Language And Vision Alignment Model by Amanpreet Singh,Ronghang Hu,Vedanuj Goswami,Guillaume Couairon,Wojciech Galuba,Marcus Rohrbach和Douwe Kiela一起发布。
  55. FNet(来自Google Research)与论文FNet:Mixing Tokens with Fourier Transforms by James Lee-Thorp, Joshua Ainslie, Ilya Eckstein, Santiago Ontanon一起发布。
  56. Funnel Transformer(来自CMU/Google Brain)与论文Funnel-Transformer: Filtering out Sequential Redundancy for Efficient Language Processing by Zihang Dai,Guokun Lai,Yiming Yang,Quoc V. Le一起发布。
  57. GIT(来自Microsoft Research)与论文GIT: A Generative Image-to-text Transformer for Vision and Language by Jianfeng Wang,Zhengyuan Yang,Xiaowei Hu,Linjie Li,Kevin Lin,Zhe Gan,Zicheng Liu,Ce Liu,Lijuan Wang一起发布。
  58. GLPN(来自KAIST)与论文Global-Local Path Networks for Monocular Depth Estimation with Vertical CutDepth by Doyeon Kim,Woonghyun Ga,Pyungwhan Ahn,Donggyu Joo,Sehwan Chun,Junmo Kim一起发布。
  59. GPT(来自OpenAI)与论文Improving Language Understanding by Generative Pre-Training by Alec Radford,Karthik Narasimhan,Tim Salimans和Ilya Sutskever一起发布。
  60. GPT Neo(来自EleutherAI)在存储库EleutherAI/gpt-neo中发布,作者为Sid Black,Stella Biderman,Leo Gao,Phil Wang和Connor Leahy。
  61. GPT NeoX(来自EleutherAI)与论文GPT-NeoX-20B: An Open-Source Autoregressive Language Model by Sid Black,Stella Biderman,Eric Hallahan,Quentin Anthony,Leo Gao,Laurence Golding,Horace He,Connor Leahy,Kyle McDonell,Jason Phang,Michael Pieler,USVSN Sai Prashanth,Shivanshu Purohit,Laria Reynolds,Jonathan Tow,Ben Wang和Samuel Weinbach一起发布
  62. GPT NeoX Japanese(来自ABEJA)由Shinya Otani、Takayoshi Makabe、Anuj Arora和Kyo Hattori发布。
  63. GPT-2(来自OpenAI)与论文Language Models are Unsupervised Multitask Learners by Alec Radford、Jeffrey Wu、Rewon Child、David Luan、Dario Amodei和Ilya Sutskever一起发布。
  64. GPT-J(来自EleutherAI)在存储库kingoflolz/mesh-transformer-jax中发布,作者为Ben Wang和Aran Komatsuzaki。
  65. GPT-Sw3(来自AI-Sweden)与论文Lessons Learned from GPT-SW3: Building the First Large-Scale Generative Language Model for Swedish by Ariel Ekgren、Amaru Cuba Gyllensten、Evangelia Gogoulou、Alice Heiman、Severine Verlinden、Joey Öhman、Fredrik Carlsson、Magnus Sahlgren一起发布。
  66. GroupViT(来自UCSD、NVIDIA)与论文GroupViT: Semantic Segmentation Emerges from Text Supervision by Jiarui Xu、Shalini De Mello、Sifei Liu、Wonmin Byeon、Thomas Breuel、Jan Kautz、Xiaolong Wang一起发布。
  67. Hubert(来自Facebook)与论文HuBERT: Self-Supervised Speech Representation Learning by Masked Prediction of Hidden Units by Wei-Ning Hsu、Benjamin Bolte、Yao-Hung Hubert Tsai、Kushal Lakhotia、Ruslan Salakhutdinov、Abdelrahman Mohamed一起发布。
  68. I-BERT(来自伯克利)与论文I-BERT: Integer-only BERT Quantization by Sehoon Kim、Amir Gholami、Zhewei Yao、Michael W. Mahoney、Kurt Keutzer一起发布。
  69. ImageGPT(来自OpenAI)与论文Generative Pretraining from Pixels by Mark Chen、Alec Radford、Rewon Child、Jeffrey Wu、Heewoo Jun、David Luan、Ilya Sutskever一起发布。
  70. Jukebox(来自OpenAI)与论文Jukebox: A Generative Model for Music by Prafulla Dhariwal、Heewoo Jun、Christine Payne、Jong Wook Kim、Alec Radford、Ilya Sutskever一起发布。
  71. LayoutLM(来自Microsoft Research Asia)与论文LayoutLM:文档图像理解的文本和布局预训练,作者为Yiheng Xu,Minghao Li,Lei Cui,Shaohan Huang,Furu Wei和Ming Zhou。
  72. LayoutLMv2(来自Microsoft Research Asia)与论文LayoutLMv2:用于视觉丰富文档理解的多模式预训练,作者为Yang Xu,Yiheng Xu,Tengchao Lv,Lei Cui,Furu Wei,Guoxin Wang,Yijuan Lu,Dinei Florencio,Cha Zhang,Wanxiang Che,Min Zhang和Lidong Zhou。
  73. LayoutLMv3(来自Microsoft Research Asia)与论文LayoutLMv3:使用统一文本和图像蒙版的文档AI预训练,作者为Yupan Huang,Tengchao Lv,Lei Cui,Yutong Lu和Furu Wei。
  74. LayoutXLM(来自Microsoft Research Asia)与论文LayoutXLM:用于多语言视觉丰富文档理解的多模式预训练,作者为Yiheng Xu,Tengchao Lv,Lei Cui,Guoxin Wang,Yijuan Lu,Dinei Florencio,Cha Zhang和Furu Wei。
  75. LED(来自AllenAI)与论文Longformer:长文档transformer,作者为Iz Beltagy,Matthew E. Peters和Arman Cohan。
  76. LeViT(来自Meta AI)与论文LeViT:ConvNet中的视觉变压器以实现更快的推理,作者为Ben Graham,Alaaeldin El-Nouby,Hugo Touvron,Pierre Stock,Armand Joulin,Hervé Jégou和Matthijs Douze。
  77. LiLT(来自华南理工大学)与论文LiLT:用于结构化文档理解的简单而有效的语言无关布局transformer,作者为Jiapeng Wang,Lianwen Jin和Kai Ding。
  78. Longformer(来自AllenAI)与论文Longformer:长文档transformer,作者为Iz Beltagy,Matthew E. Peters和Arman Cohan。
  79. LongT5(来自Google AI)与论文LongT5:用于长序列的高效文本到文本transformer,作者为Mandy Guo、Joshua Ainslie、David Uthus、Santiago Ontanon、Jianmo Ni、Yun-Hsuan Sung和Yinfei Yang。
  80. LUKE(来自Studio Ousia)与论文LUKE:具有实体感知自我注意力的深度上下文化实体表示,作者为Ikuya Yamada、Akari Asai、Hiroyuki Shindo、Hideaki Takeda和Yuji Matsumoto。
  81. LXMERT(来自UNC Chapel Hill)与论文LXMERT:从变压器中学习跨模态编码器表示以用于开放域问答,作者为Hao Tan和Mohit Bansal。
  82. M-CTC-T(来自Facebook)与论文Pseudo-Labeling For Massively Multilingual Speech Recognition by Loren Lugosch、Tatiana Likhomanenko、Gabriel Synnaeve和Ronan Collobert。
  83. M2M100(来自Facebook)与论文Beyond English-Centric Multilingual Machine Translation by Angela Fan、Shruti Bhosale、Holger Schwenk、Zhiyi Ma、Ahmed El-Kishky、Siddharth Goyal、Mandeep Baines、Onur Celebi、Guillaume Wenzek、Vishrav Chaudhary、Naman Goyal、Tom Birch、Vitaliy Liptchinsky、Sergey Edunov、Edouard Grave、Michael Auli和Armand Joulin。
  84. MarianMT使用OPUS数据训练的机器翻译模型由Jörg Tiedemann开发。Marian框架正在由Microsoft Translator团队开发。
  85. MarkupLM(来自Microsoft Research Asia)与论文MarkupLM:面向视觉丰富文档理解的文本和标记语言预训练,作者为Junlong Li、Yiheng Xu、Lei Cui和Furu Wei。
  86. Mask2Former(来自FAIR和UIUC)与论文Masked-attention Mask Transformer for Universal Image Segmentation by Bowen Cheng、Ishan Misra、Alexander G. Schwing、Alexander Kirillov和Rohit Girdhar。
  87. MaskFormer(来自Meta和UIUC)与论文Per-Pixel Classification is Not All You Need for Semantic Segmentation by Bowen Cheng、Alexander G. Schwing和Alexander Kirillov。
  88. mBART(来自Facebook)与论文Multilingual Denoising Pre-training for Neural Machine Translation by Yinhan Liu、Jiatao Gu、Naman Goyal、Xian Li、Sergey Edunov、Marjan Ghazvininejad、Mike Lewis、Luke Zettlemoyer。
  89. mBART-50(来自Facebook)与论文Multilingual Translation with Extensible Multilingual Pretraining and Finetuning by Yuqing Tang、Chau Tran、Xian Li、Peng-Jen Chen、Naman Goyal、Vishrav Chaudhary、Jiatao Gu和Angela Fan。
  90. Megatron-BERT(来自NVIDIA)与论文Megatron-LM:使用模型并行训练多十亿参数语言模型,作者为Mohammad Shoeybi、Mostofa Patwary、Raul Puri、Patrick LeGresley、Jared Casper和Bryan Catanzaro。
  91. Megatron-GPT2(来自NVIDIA)与论文Megatron-LM:使用模型并行性训练多十亿参数语言模型,作者为Mohammad Shoeybi,Mostofa Patwary,Raul Puri,Patrick LeGresley,Jared Casper和Bryan Catanzaro。
  92. mLUKE(来自Studio Ousia)与论文mLUKE:多语言预训练语言模型中实体表示的力量,作者为Ryokan Ri,Ikuya Yamada和Yoshimasa Tsuruoka。
  93. MobileBERT(来自CMU / Google Brain)与论文MobileBERT:面向资源有限设备的紧凑型任务不可知BERT,作者为Zhiqing Sun,Hongkun Yu,Xiaodan Song,Renjie Liu,Yiming Yang和Denny Zhou。
  94. MobileNetV1(来自Google Inc.)与论文MobileNets:用于移动视觉应用的高效卷积神经网络,作者为Andrew G. Howard,Menglong Zhu,Bo Chen,Dmitry Kalenichenko,Weijun Wang,Tobias Weyand,Marco Andreetto和Hartwig Adam。
  95. MobileNetV2(来自Google Inc.)与论文MobileNetV2:倒置残差和线性瓶颈,作者为Mark Sandler,Andrew Howard,Menglong Zhu,Andrey Zhmoginov和Liang-Chieh Chen。
  96. MobileViT(来自Apple)与论文MobileViT:轻量级、通用且移动友好的视觉变换器,作者为Sachin Mehta和Mohammad Rastegari。
  97. MPNet(来自Microsoft Research)与论文MPNet:用于语言理解的掩码和排列预训练,作者为Kaitao Song,Xu Tan,Tao Qin,Jianfeng Lu和Tie-Yan Liu。
  98. MT5(来自Google AI)与论文mT5:大规模多语言预训练文本到文本变换器,作者为Linting Xue,Noah Constant,Adam Roberts,Mihir Kale,Rami Al-Rfou,Aditya Siddhant,Aditya Barua和Colin Raffel。
  99. MVP(来自RUC AI Box)与论文MVP:用于自然语言生成的多任务监督预训练,作者为Tianyi Tang,Junyi Li,Wayne Xin Zhao和Ji-Rong Wen。
  100. NAT(来自SHI Labs)与论文Neighborhood Attention Transformer:作者为Ali Hassani、Steven Walton、Jiachen Li、Shen Li和Humphrey Shi。
  101. Nezha(来自华为诺亚方舟实验室)与论文NEZHA:用于中文语言理解的神经上下文表示,作者为Junqiu Wei,Xiaozhe Ren,Xiaoguang Li,Wenyong Huang,Yi Liao,Yasheng Wang,Jiashu Lin,Xin Jiang,Xiao Chen和Qun Liu。
  102. NLLB(来自Meta)与论文No Language Left Behind:NLLB团队扩展以人为中心的机器翻译。
  103. Nyströmformer(来自威斯康星大学 - 麦迪逊分校)与论文Nyströmformer:一种基于Nyström的算法,用于近似自我注意力,作者为Yunyang Xiong,Zhanpeng Zeng,Rudrasis Chakraborty,Mingxing Tan,Glenn Fung,Yin Li和Vikas Singh。
  104. OPT(来自Meta AI)与论文OPT:开放预训练变换器语言模型,作者为Susan Zhang,Stephen Roller,Naman Goyal,Mikel Artetxe,Moya Chen,Shuohui Chen等。
  105. OWL-ViT(来自Google AI)与论文Simple Open-Vocabulary Object Detection with Vision Transformers:Matthias Minderer、Alexey Gritsenko、Austin Stone、Maxim Neumann、Dirk Weissenborn、Alexey Dosovitskiy、Aravindh Mahendran、Anurag Arnab、Mostafa Dehghani、Zhuoran Shen、Xiao Wang、Xiaohua Zhai、Thomas Kipf和Neil Houlsby。
  106. Pegasus(来自Google)与论文PEGASUS:使用提取的间隙句子进行抽象汇总的预训练,作者为Jingqing Zhang、Yao Zhao、Mohammad Saleh和Peter J. Liu。
  107. PEGASUS-X(来自Google)与论文Investigating Efficiently Extending Transformers for Long Input Summarization:Jason Phang、Yao Zhao和Peter J. Liu。
  108. Perceiver IO(来自Deepmind)与论文Perceiver IO:用于结构化输入和输出的通用体系结构,作者为Andrew Jaegle、Sebastian Borgeaud、Jean-Baptiste Alayrac、Carl Doersch、Catalin Ionescu、David Ding、Skanda Koppula、Daniel Zoran、Andrew Brock、Evan Shelhamer、Olivier Hénaff、Matthew M. Botvinick、Andrew Zisserman、Oriol Vinyals和João Carreira。
  109. PhoBERT(来自VinAI Research)与论文PhoBERT:越南语预训练语言模型,作者为Dat Quoc Nguyen和Anh Tuan Nguyen。
  110. PLBart(来自UCLA NLP)与论文Unified Pre-training for Program Understanding and Generation:Wasi Uddin Ahmad,Saikat Chakraborty,Baishakhi Ray和Kai-Wei Chang。
  111. PoolFormer(来自Sea AI Labs)与论文MetaFormer is Actually What You Need for Vision,作者为Yu,Weihao和Luo,Mi和Zhou,Pan和Si,Chenyang和Zhou,Yichen和Wang,Xinchao和Feng,Jiashi和Yan,Shuicheng。
  112. ProphetNet(来自微软研究)与论文ProphetNet:用于序列到序列预训练的预测未来N-gram,作者为Yu Yan,Weizhen Qi,Yeyun Gong,Dayiheng Liu,Nan Duan,Jiusheng Chen,Ruofei Zhang和Ming Zhou。
  113. QDQBert(来自NVIDIA)与论文用于深度学习推断的整数量化:原理和实证评估,作者为Hao Wu,Patrick Judd,Xiaojie Zhang,Mikhail Isaev和Paulius Micikevicius。
  114. RAG(来自Facebook)与论文检索增强生成用于知识密集型NLP任务,作者为Patrick Lewis,Ethan Perez,Aleksandara Piktus,Fabio Petroni,Vladimir Karpukhin,Naman Goyal,Heinrich Küttler,Mike Lewis,Wen-tau Yih,Tim Rocktäschel,Sebastian Riedel和Douwe Kiela。
  115. REALM(来自Google Research)与论文REALM:检索增强语言模型预训练,作者为Kelvin Guu,Kenton Lee,Zora Tung,Panupong Pasupat和Ming-Wei Chang。
  116. Reformer(来自Google Research)与论文Reformer:高效Transformer,作者为Nikita Kitaev、Łukasz Kaiser、Anselm Levskaya。
  117. RegNet(来自META Platforms)与论文设计网络设计空间,作者为Ilija Radosavovic、Raj Prateek Kosaraju、Ross Girshick、Kaiming He、Piotr Dollár。
  118. RemBERT(来自Google Research)与论文在预训练语言模型中重新思考嵌入耦合,作者为Hyung Won Chung、Thibault Févry、Henry Tsai、M. Johnson、Sebastian Ruder。
  119. ResNet(来自微软研究)与论文Deep Residual Learning for Image Recognition,作者为Kaiming He、Xiangyu Zhang、Shaoqing Ren、Jian Sun。
  120. RoBERTa(来自Facebook),与论文RoBERTa:一种鲁棒优化的BERT预训练方法一起发布,作者为Yinhan Liu、Myle Ott、Naman Goyal、Jingfei Du、Mandar Joshi、Danqi Chen、Omer Levy、Mike Lewis、Luke Zettlemoyer、Veselin Stoyanov。
  121. RoBERTa-PreLayerNorm(来自Facebook)与论文fairseq:一种快速、可扩展的序列建模工具包,作者为Myle Ott、Sergey Edunov、Alexei Baevski、Angela Fan、Sam Gross、Nathan Ng、David Grangier和Michael Auli。
  122. RoCBert(来自WeChatAI)与论文RoCBert:具有多模态对比预训练的鲁棒中文Bert,作者为HuiSu、WeiweiShi、XiaoyuShen、XiaoZhou、TuoJi、JiaruiFang和JieZhou。
  123. RoFormer(来自ZhuiyiTechnology)与论文RoFormer:具有旋转位置嵌入的增强型Transformer,作者为Jianlin Su、Yu Lu、Shengfeng Pan、Bo Wen和Yunfeng Liu。
  124. SegFormer(来自NVIDIA)与论文SegFormer:用于语义分割的简单高效Transformer设计,作者为Enze Xie、Wenhai Wang、Zhiding Yu、Anima Anandkumar、Jose M. Alvarez和Ping Luo。
  125. SEW(来自ASAPP)与论文Performance-Efficiency Trade-offs in Unsupervised Pre-training for Speech Recognition,作者为Felix Wu、Kwangyoun Kim、Jing Pan、Kyu Han、Kilian Q. Weinberger和Yoav Artzi。
  126. SEW-D(来自ASAPP)与论文Performance-Efficiency Trade-offs in Unsupervised Pre-training for Speech Recognition,作者为Felix Wu、Kwangyoun Kim、Jing Pan、Kyu Han、Kilian Q. Weinberger和Yoav Artzi。
  127. SpeechToTextTransformer(来自Facebook)与论文fairseq S2T:使用fairseq进行快速语音转文本建模,作者为Changhan Wang、Yun Tang、Xutai Ma、Anne Wu、Dmytro Okhonko和Juan Pino。
  128. SpeechToTextTransformer2(来自Facebook)与论文用于大规模自监督学习的语音翻译,作者为Changhan Wang、Anne Wu、Juan Pino、Alexei Baevski、Michael Auli和Alexis Conneau。
  129. Splinter(来自特拉维夫大学)与论文Few-Shot Question Answering by Pretraining Span Selection,作者为Ori Ram、Yuval Kirstain、Jonathan Berant、Amir Globerson和Omer Levy。
  130. SqueezeBERT(来自伯克利)与论文SqueezeBERT:计算机视觉如何教NLP高效神经网络?作者为Forrest N. Iandola、Albert E. Shaw、Ravi Krishna和Kurt W. Keutzer。
  131. Swin Transformer(来自微软)与论文Swin Transformer:使用移动窗口的分层视觉Transformer,作者为Ze Liu、Yutong Lin、Yue Cao、Han Hu、Yixuan Wei、Zheng Zhang、Stephen Lin和Baining Guo。
  132. Swin Transformer V2(来自微软)与论文Swin Transformer V2:通过Ze Liu、Han Hu、Yutong Lin、Zhuliang Yao、Zhenda Xie、Yixuan Wei、Jia Ning、Yue Cao、Zheng Zhang、Li Dong、Furu Wei和Baining Guo扩展容量和分辨率。
  133. Swin2SR(来自Würzburg大学)与论文Swin2SR:用于压缩图像超分辨率和恢复的SwinV2 Transformer,作者为Marcos V. Conde、Ui-Jin Choi、Maxime Burchi和Radu Timofte。
  134. SwitchTransformers(来自Google)与论文Switch Transformers:使用简单高效的稀疏性扩展到万亿参数模型的规模,作者为William Fedus、Barret Zoph和Noam Shazeer。
  135. T5(来自Google AI)与论文探索统一的文本到文本Transformer的迁移学习极限,作者为Colin Raffel、Noam Shazeer、Adam Roberts、Katherine Lee、Sharan Narang、Michael Matena、Yanqi Zhou、Wei Li和Peter J. Liu。
  136. T5v1.1(来自Google AI)发布在google-research/text-to-text-transfer-transformer存储库中,作者为Colin Raffel、Noam Shazeer、Adam Roberts、Katherine Lee、Sharan Narang、Michael Matena、Yanqi Zhou、Wei Li和Peter J. Liu。
  137. Table Transformer(来自Microsoft Research)与论文PubTables-1M:从非结构化文档中提取全面表格,作者为Brandon Smock、Rohith Pesala和Robin Abraham。
  138. TAPAS(来自Google AI)与论文TAPAS:通过预训练进行弱监督表格解析,作者为Jonathan Herzig、Paweł Krzysztof Nowak、Thomas Müller、Francesco Piccinno和Julian Martin Eisenschlos。
  139. TAPEX(来自Microsoft Research)与论文TAPEX:通过学习神经SQL执行器进行表格预训练,作者为Qian Liu,Bei Chen,Jiaqi Guo,Morteza Ziyadi,Zeqi Lin,Weizhu Chen和Jian-Guang Lou。
  140. Time Series Transformer(来自HuggingFace)。
  141. TimeSformer(来自Facebook)与论文时空注意力是否足以实现视频理解?作者为Gedas Bertasius、Heng Wang和Lorenzo Torresani。
  142. Trajectory Transformer(来自加州大学伯克利分校)与论文离线强化学习作为一个大序列建模问题,作者为Michael Janner、Qiyang Li和Sergey Levine
  143. Transformer-XL(来自Google / CMU)与论文Transformer-XL:超出固定长度上下文的注意力语言模型,作者为Zihang Dai,Zhilin Yang,Yiming Yang,Jaime Carbonell,Quoc V. Le,Ruslan Salakhutdinov。
  144. TrOCR(来自Microsoft),与论文TrOCR:基于Transformer的光学字符识别预训练模型,作者为Minghao Li,Tengchao Lv,Lei Cui,Yijuan Lu,Dinei Florencio,Cha Zhang,Zhoujun Li和Furu Wei。
  145. UL2(来自Google Research)与论文统一语言学习范例,作者为Yi Tay,Mostafa Dehghani,Vinh Q. Tran,Xavier Garcia,Dara Bahri,Tal Schuster,Huaixiu Steven Zheng,Neil Houlsby,Donald Metzler
  146. UniSpeech(来自Microsoft Research)与论文UniSpeech:使用有标记和无标记数据的统一语音表示学习,作者为Chengyi Wang,Yu Wu,Qian Yao,Kenichi Kumatani,Shujie Liu,Furu Wei,Michael Zeng和Xuedong Huang。
  147. UniSpeechSat(来自Microsoft Research)与论文UNISPEECH-SAT:具有说话人感知的预训练的通用语音表示学习,作者为Sanyuan Chen、Yu Wu、Chengyi Wang、Zhengyang Chen、Zhuo Chen、Shujie Liu、Jian Wu、Yao Qian、Furu Wei、Jinyu Li和Xiangzhan Yu。
  148. UPerNet(来自北京大学)与论文Unified Perceptual Parsing for Scene Understanding,作者为Tete Xiao、Yingcheng Liu、Bolei Zhou、Yuning Jiang和Jian Sun。
  149. VAN(来自清华大学和南开大学)与论文Visual Attention Network,作者为Meng-Hao Guo、Cheng-Ze Lu、Zheng-Ning Liu、Ming-Ming Cheng和Shi-Min Hu。
  150. VideoMAE(来自南京大学多媒体计算组)与论文VideoMAE:Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training,作者为Zhan Tong、Yibing Song、Jue Wang和Limin Wang。
  151. ViLT(来自NAVER AI Lab/Kakao Enterprise/Kakao Brain)与论文ViLT:Vision-and-Language Transformer Without Convolution or Region Supervision,作者为Wonjae Kim、Bokyung Son和Ildoo Kim。
  152. Vision Transformer(ViT)(来自Google AI)与论文An Image is Worth 16x16 Words:Transformers for Image Recognition at Scale,作者为Alexey Dosovitskiy、Lucas Beyer、Alexander Kolesnikov、Dirk Weissenborn、Xiaohua Zhai、Thomas Unterthiner、Mostafa Dehghani、Matthias Minderer、Georg Heigold、Sylvain Gelly、Jakob Uszkoreit和Neil Houlsby。
  153. VisualBERT(来自UCLA NLP)与论文VisualBERT:A Simple and Performant Baseline for Vision and Language,作者为Liunian Harold Li、Mark Yatskar、Da Yin、Cho-Jui Hsieh和Kai-Wei Chang。
  154. ViT Hybrid(来自Google AI)与论文An Image is Worth 16x16 Words:Transformers for Image Recognition at Scale,作者为Alexey Dosovitskiy、Lucas Beyer、Alexander Kolesnikov、Dirk Weissenborn、Xiaohua Zhai、Thomas Unterthiner、Mostafa Dehghani、Matthias Minderer、Georg Heigold、Sylvain Gelly、Jakob Uszkoreit和Neil Houlsby。
  155. ViTMAE(来自Meta AI)与论文Masked Autoencoders Are Scalable Vision Learners,作者为Kaiming He、Xinlei Chen、Saining Xie、Yanghao Li、Piotr Dollár和Ross Girshick。
  156. ViTMSN(来自Meta AI)与论文Masked Siamese Networks for Label-Efficient Learning,作者为Mahmoud Assran、Mathilde Caron、Ishan Misra、Piotr Bojanowski、Florian Bordes、Pascal Vincent、Armand Joulin、Michael Rabbat和Nicolas Ballas。
  157. Wav2Vec2(来自Facebook AI)与论文wav2vec 2.0:A Framework for Self-Supervised Learning of Speech Representations,作者为Alexei Baevski、Henry Zhou、Abdelrahman Mohamed和Michael Auli。
  158. Wav2Vec2-Conformer(来自Facebook AI)与论文FAIRSEQ S2T:Fast Speech-to-Text Modeling with FAIRSEQ,作者为Changhan Wang、Yun Tang、Xutai Ma、Anne Wu、Sravya Popuri、Dmytro Okhonko和Juan Pino。
  159. Wav2Vec2Phoneme(来自Facebook AI)与论文Simple and Effective Zero-shot Cross-lingual Phoneme Recognition,作者为Qiantong Xu、Alexei Baevski和Michael Auli。
  160. WavLM(来自Microsoft Research)与论文WavLM:Large-Scale Self-Supervised Pre-Training for Full Stack Speech Processing,作者为Sanyuan Chen、Chengyi Wang、Zhengyang Chen、Yu Wu、Shujie Liu、Zhuo Chen、Jinyu Li、Naoyuki Kanda、Takuya Yoshioka、Xiong Xiao、Jian Wu、Long Zhou、Shuo Ren、Yanmin Qian、Yao Qian、Jian Wu、Michael Zeng和Furu Wei。
  161. Whisper(来自OpenAI)与论文Robust Speech Recognition via Large-Scale Weak Supervision,作者为Alec Radford、Jong Wook Kim、Tao Xu、Greg Brockman和Christine McLeavey。
  162. X-CLIP(来自Microsoft Research)与论文Expanding Language-Image Pretrained Models for General Video Recognition,作者为Bolin Ni、Houwen Peng、Minghao Chen、Songyang Zhang、Gaofeng Meng、Jianlong Fu、Shiming Xiang和Haibin Ling。
  163. XGLM(来自Facebook AI)与论文Few-shot Learning with Multilingual Language Models,作者为Xi Victoria Lin、Todor Mihaylov、Mikel Artetxe、Tianlu Wang、、Shuohui Chen、、Daniel Simig、、Myle Ott、、Naman Goyal、、Shruti Bhosale、、Jingfei Du、、Ramakanth Pasunuru、、Sam Shleifer、、Punit Singh Koura、、Vishrav Chaudhary、、Brian O’Horo、、Jeff Wang、、Luke Zettlemoyer、、Zornitsa Kozareva、、Mona Diab和Veselin Stoyanov。
  164. XLM(来自Facebook)与论文Cross-lingual Language Model Pretraining,作者为Guillaume Lample和Alexis Conneau。
  165. XLM-ProphetNet(来自Microsoft Research)与论文ProphetNet:Predicting Future N-gram for Sequence-to-Sequence Pre-training,作者为Yu Yan、、Weizhen Qi、、Yeyun Gong、、Dayiheng Liu、、Nan Duan、、Jiusheng Chen、、Ruofei Zhang和Ming Zhou。
  166. XLM-RoBERTa(来自Facebook AI),与论文Unsupervised Cross-lingual Representation Learning at Scale,作者为Alexis Conneau、、Kartikay Khandelwal、、Naman Goyal、、Vishrav Chaudhary、、Guillaume Wenzek、、Francisco Guzmán、、Edouard Grave、、Myle Ott、、Luke Zettlemoyer和Veselin Stoyanov。
  167. XLM-RoBERTa-XL(来自Facebook AI),与论文Larger-Scale Transformers for Multilingual Masked Language Modeling,作者为Naman Goyal、、Jingfei Du、、Myle Ott、、Giri Anantharaman和Alexis Conneau。
  168. XLNet(来自Google/CMU)的论文《XLNet: Generalized Autoregressive Pretraining for Language Understanding》由Zhilin Yang、Zihang Dai、Yiming Yang、Jaime Carbonell、Ruslan Salakhutdinov和Quoc V.Le撰写,已发布。
  169. XLS-R(来自Facebook AI)的论文《XLS-R: Self-supervised Cross-lingual Speech Representation Learning at Scale》由Arun Babu、Changhan Wang、Andros Tjandra、Kushal Lakhotia、Qiantong Xu、Naman Goyal、Kritika Singh、Patrick von Platen、Yatharth Saraf、Juan Pino、Alexei Baevski、Alexis Conneau和Michael Auli撰写,已发布。
  170. XLSR-Wav2Vec2(来自Facebook AI)的论文《Unsupervised Cross-Lingual Representation Learning For Speech Recognition》由Alexis Conneau、Alexei Baevski、Ronan Collobert、Abdelrahman Mohamed和Michael Auli撰写,已发布。
  171. YOLOS(来自华中科技大学)的论文《You Only Look at One Sequence: Rethinking Transformer in Vision through Object Detection》由Yuxin Fang、Bencheng Liao、Xinggang Wang、Jiemin Fang、Jiyang Qi、Rui Wu、Jianwei Niu和Wenyu Liu撰写,已发布。
  172. YOSO(来自威斯康星大学 - 麦迪逊分校)的论文《You Only Sample (Almost) Once: Linear Cost Self-Attention Via Bernoulli Sampling》由Zhanpeng Zeng、Yunyang Xiong、Sathya N. Ravi、Shailesh Acharya、Glenn Fung和Vikas Singh撰写,已发布。

        Transformer 4.43.40 版本支持的模型目录涵盖了自然语言处理领域的众多任务和应用,从文本分类到机器翻译,从命名实体识别到情感分析,以及许多其他领域。这些模型的广泛支持使得开发者可以根据不同的需求选择最合适的模型,从而加速自然语言处理项目的开发和部署。无论您是在研究、开发还是部署自然语言处理应用,Transformer 4.43.40 版本都提供了强大的工具和资源,助您取得更好的成果。不断更新的 Transformer 工具包将继续为自然语言处理领域的创新和进步做出贡献,为解决各种复杂的文本处理问题提供支持。

相关文章:

【HuggingFace】Transformers(V4.34.0 稳定)支持的模型

Transformer 4.43.40 版本是自然语言处理领域的一个重要工具包,为开发者提供了丰富的预训练模型资源,可以用于各种文本处理任务。在这个版本中,Transformer 支持了众多模型,每个模型都具有不同的优势和适用领域。下面是一个 Trans…...

oracle 导入数据泵常用语句

oracle常用语句 window10 导出导入数据泵文件导入数据泵文件导出数据泵文件 oracle表空间查询、剩余空间查询查询表空间大小及对应文件查询各个表空间大小扩充表空间 window10 导出导入数据泵文件 导入数据泵文件 首先将数据泵文件放在oracle安装得对应位置,例如&…...

tensorflow中的常见方法

1.tf.argmax(input,axis) tf.argmax(input,axis)根据axis取值的不同返回每行或者每列最大值的索引。 axis 0: 比较每一列的元素,将每一列最大元素所在的索引记录下来,最后输出每一列最大元素所在的索引数组。 test[0] array([1, 2, 3]) test[1] …...

【周末闲谈】“PHP是最好的语言”这个梗是怎么来的?

个人主页:【😊个人主页】 系列专栏:【❤️周末闲谈】 系列目录 ✨第一周 二进制VS三进制 ✨第二周 文心一言,模仿还是超越? ✨第二周 畅想AR 文章目录 系列目录前言最早的出处关于PHP语言优点缺点网络评价 总结 前言 …...

四位十进制数字频率计VHDL,仿真视频、代码

名称:四位十进制数字频率计VHDL,quartus仿真 软件:Quartus 语言:VHDL 代码功能: 使用直接测频法测量信号频率,测频范围为1~9999Hz,具有超量程报警功能 演示视频:四位十进制数字频…...

Unity实现设计模式——策略模式

Unity实现设计模式——策略模式 策略模式是一种定义一些列算法的方法,这些所有的算法都是完成相同的工作,只是实现不同。它可以通过相同的方式调用所有的算法,减少各种算法类与使用算法类之间的耦合。 策略模式的 Strategy 类层次为 Contex…...

C++基础——数据类型

1 概述 在创建变量和常量的时候,都需要指定其数据类型,以便为其分配合适的内存空间。 其中宏常量不需要指定类型,是因为宏定义是字符替换。 2 整型 整型表示的是整数,C中的整型有以下几种: 数据类型占用空间取值范…...

文本自动输入/删除的加载动画效果

效果展示 CSS 知识点 绕矩形四周跑的光柱动画实现animation 属性的 steps 属性值运用 页面基础结构实现 <div class"loader"><!-- span 标签是围绕矩形四周的光柱 --><span></span><span></span><span></span>&l…...

PHP8的匿名类-PHP8知识详解

PHP8支持通过new class 来实例化一个匿名类。所谓匿名类&#xff0c;就是指没有名称的类&#xff0c;只能在创建时使用new语句来声明它们。 匿名类是一种没有命名的即时类&#xff0c;可以用于简单的对象封装和实现接口。 以下是PHP 8中匿名类的基本语法示例&#xff1a; $ob…...

WebKit Inside: CSS 样式表的匹配时机

WebKit Inside: CSS 的解析 介绍了 CSS 样式表的解析过程&#xff0c;这篇文章继续介绍 CSS 的匹配时机。 无外部样式表 内部样式表和行内样式表本身就在 HTML 里面&#xff0c;解析 HTML 标签构建 DOM 树时内部样式表和行内样式就会被解析完毕。因此如果 HTML 里面只有内部样式…...

<HarmonyOS第一课>从简单的页面开始——闯关习题及答案

加入鸿蒙应用开发公开课系统学习HarmonyOS应用开发 判断题 1.在Column容器中的子组件默认是按照从上到下的垂直方向布局的&#xff0c;其主轴的方向是垂直方向&#xff0c;在Row容器中的组件默认是按照从左到右的水平方向布局的&#xff0c;其主轴的方向是水平方向。&#xff…...

视频下载plus+:一款强大的视频下载小程序

引言 在当下&#xff0c;随着视频号的火爆和用户数量的不断增加&#xff0c;视频下载已经成为了众多用户追求的目标。尽管市面上有很多视频下载助手&#xff0c;但是很多人对于如何下载视频还是摸不着头脑。今天我将向大家推荐一款我自己使用并且非常好用的视频下载小程序——…...

扭线机控制

扭线机属于线缆加工设备&#xff0c;线缆加工设备种类非常多。有用于网线绞合的单绞&#xff0c;双绞机等&#xff0c;有关单绞机相关算法介绍&#xff0c;大家可以查看专栏相关文章&#xff0c;有详细介绍&#xff0c;常用链接如下&#xff1a; 线缆行业单绞机控制算法&#…...

Android App启动优化之启动框架

android启动优化是个比较重要的部分&#xff0c;也是一大难题&#xff0c;一个优秀的app首先给人第一感觉就是启动速度&#xff0c;启动速度非常影响用户的体验&#xff0c;那么我们今天展开说说启动优化相关的问题。 我们先来简单分析一下启动过程、启动优化方向&#xff0c;…...

zookeeper入门篇之分布式锁

文章目录 前言非公平锁公平锁 前言 上一篇说过&#xff0c;zookeeper是一个类似文件系统的数据结构&#xff0c;每个节点都可以看做是一个文件目录&#xff0c;也就是说&#xff0c;我们所创建的节点是唯一的&#xff0c;那么分布式锁的原理就是基于这个来的。 代码仓库&…...

leetcode解题思路分析(一百四十九)1297 - 1304 题

子串的最大出现次数 给你一个字符串 s &#xff0c;请你返回满足以下条件且出现次数最大的 任意 子串的出现次数&#xff1a; 子串中不同字母的数目必须小于等于 maxLetters 。 子串的长度必须大于等于 minSize 且小于等于 maxSize 。 首先能想到的是从MinSize开始遍历查找&am…...

你的librosa和scikit-learn打架了吗?

被这个问题困扰好久&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01; 我的原来版本librosa0.7.1 和 scikit-learn1.3.1 一直拆了按&#xff0c;按…...

理解自动驾驶感知技术

理解自动驾驶感知技术 文章目录 什么是自动驾驶感知技术&#xff1f;自动驾驶感知技术的关键组成部分1. 雷达&#xff08;Radar&#xff09;2. 摄像头&#xff08;Camera&#xff09;3. 激光雷达&#xff08;Lidar&#xff09;4. 超声波传感器&#xff08;Ultrasonic Sensors&a…...

一款简化Python自然语言处理的开源库

迷途小书童 读完需要 3分钟 速读仅需 1 分钟 1 简介 TextBlob 是一个 Python 库&#xff0c;用于处理文本数据的自然语言处理&#xff08;NLP&#xff09;任务。它提供了简单且易于使用的 API&#xff0c;使得对文本进行分析、情感分析、词性标注、名词短语提取等任务变得更加简…...

常用Redis界面化软件

对于Redis的操作&#xff0c;前期有过介绍【Centos 下安装 Redis 及命令行操作】。而在Redis的日常开发调试中&#xff0c;可使用可视化软件方便进行操作。 本篇主要介绍Redis可视化的两款工具&#xff1a;Redis Desktop Manager和AnotherRedisDesktopManager。 1、Redis Desk…...

电脑散热——液金散热

目录 1.简介 2.传统硅脂与液金导热区别 3.特点 4.优点 5.为什么液金技术名声不太好 6.使用方法 1.简介 凡是对于电脑基础硬件有所了解的人&#xff0c;都知道硅脂是如今高性能电脑设备中必不可少的东西。芯片表面和散热器接触面&#xff0c;虽然肉眼看上去是非常光滑的金属…...

多线程锁-synchronized字节码分析

从字节码角度分析synchronized实现 javap -c(v附加信息) ***.class 文件反编译 synchronized同步代码块 >>>实现使用的是monitorenter和monitorexit指令 synchronized普通同步方法 >>>调用指令将会检查方法的ACC_SYNCHRONIZED访问标志是否被设置&#xf…...

SpringCloud学习笔记-Eureka的服务拉取

假设是OrderService里面拉取Eureka的服务之一User Service 1.依然需要在该服务里面引入依赖 <dependency><groupId>org.springframework.cloud</groupId><artifactId>spring-cloud-starter-netflix-eureka-client</artifactId> </dependenc…...

COLLABORATIVE DESIGNER FOR SOLIDWORKS® 新功能

共享和标注 优点&#xff1a;收件人在浏览器中访问共享文 件&#xff0c;无需安装3DEXPERIENCE 平台应用程序。 • 与 SOLIDWORKS 中来自您组织内部或外部的任何人无缝 共享您的设计。 • 直接将评论和标注附加到您的设计作品中&#xff0c;便于立即获得 反馈。 支持 SOLIDWO…...

AMD CPU 虚拟机安装 macos 系统的各虚拟机系统对比

软硬件环境&#xff1a; CPU:AMD R7 7735HS 8核16线程 显卡&#xff1a;AMD R680M 集显 内存&#xff1a;32GB DDR5 硬盘&#xff1a;2TB SSD Windows11 1、VMware Workstation 我用的是17 的版本&#xff0c;使用方便&#xff0c;对于macos 12及以下的安装在需要修改vmx 文…...

php实战案例记录(20)时间比较

在PHP中&#xff0c;有几种常见的方法可以进行时间比较。以下是其中的一些方法&#xff1a; 使用比较运算符&#xff1a;可以使用比较运算符&#xff08;如小于"<“、大于”>“、小于等于”<“、大于等于”>“、等于”“、不等于”!"等&#xff09;来比…...

web中缓存的几种方式

看了构建高性能的web站点一书&#xff0c;对其中的集中web缓存进行一个总结 1 应用程序实现的动态页面缓存 应用程序把动态文件生成的html文件缓存到文件服务器&#xff0c;以后用户请求动态文件&#xff0c;直接从文件服务器加载对应的静态缓存的html文件返回给用户&#xff…...

Stable Diffusion生成图片

画质 masterpiece,best quality,illustration,extremely detail CG unity 8k wallpaper,ultra-detailed,depth of field 杰作&#xff0c;最佳质量&#xff0c;插图&#xff0c;极度详细的8K壁纸&#xff0c;超高详细度&#xff0c;景深 画风 Chinese ink painting,water color…...

MySQL增删查改(进阶1)

一、数据库约束 约束&#xff1a;按照一定条件进行规范的做事&#xff1b; 表定义的时候&#xff0c;某些字段保存的数据需要按照一定的约束条件&#xff1b; 1.null约束 字段null&#xff1a;该字段可以为空&#xff1b;not null&#xff1a;该字段不能为空不指定的话就是…...

RabbitMQ-发布订阅模式和路由模式

接上文 RabbitMQ-工作队列 1 发布订阅模式 将之前的配置类内容都替换掉 Bean("fanoutExchange")public Exchange exchange(){//注意这里是fanoutExchangereturn ExchangeBuilder.fanoutExchange("amq.fanout").build();}Bean("yydsQueue1")publ…...

RabbitMQ-主题模式

接上文 RabbitMQ-发布订阅模式和路由模式 1 主题模式 #通配符 代表0个或多个。*通配符 代表 1个或多个 进行测试&#xff0c;修改配置文件 Configuration public class RabbitConfiguration {Bean("topicExchange") //这里使用预置的Topic类型交换机public Exchan…...

阅读文献小技巧

在科研中,文献的阅读是非常重要的一环。对于汇报论文的文献阅读,更是需要有一定的技巧。下面列出一些阅读汇报论文文献的技巧。 1.明确阅读目的和任务。在阅读每篇文献之前,需要明确阅读该文献的目的和任务,例如是否需要了解该领域的最新进展、寻找相关数据或案例等。是为…...

简易的贪吃蛇小游戏(以后或许会更新)C++/C语言

第一版&#xff1a; #include <stdio.h> #include <conio.h> #include <stdlib.h> #include <windows.h>#define WIDTH 20 #define HEIGHT 20int gameOver; int score; int x, y; // 蛇头的坐标 int fruitX, fruitY; // 食物的坐标 int tailX[100], t…...

23云计算全国职业技能大赛容器云-容器编排

erp 2.2.1 容器化部署 MariaDB [0.5 分]2.2.2 容器化部署 Redis [0.5 分]2.2.3 容器化部署 Nginx [0.5 分]2.2.4 容器化部署 ERP[0.5 分]2.2.5 编排部署 ERP管理系统[1 分] 2.2.1 容器化部署 MariaDB [0.5 分] 编写 Dockerfile 文件构建 mysql 镜像&#xff0c;要求基于 centos…...

哨兵(Sentinel-1、2)数据下载

哨兵&#xff08;Sentinel-1、2&#xff09;数据下载 一、登陆欧空局网站 二、检索 先下载2号为光学数据 分为S2A和S2B&#xff0c;产品种类有1C和2A&#xff0c;区别就是2A是做好大气校正的影像&#xff0c;当然数量也会少一些&#xff0c;云量检索条件中记得要按格式&#x…...

开启AI大模型时代|「Transformer论文精读」

论文地址: https://arxiv.org/pdf/1706.03762v5.pdf 代码地址: https://github.com/tensorflow/tensor2tensor.git 首发&#xff1a;微信公众号「魔方AI空间」&#xff0c;欢迎关注&#xff5e; 大家好&#xff0c;我是魔方君~~ 近年来&#xff0c;人工智能技术发展迅猛&#…...

【小沐学前端】Windows下搭建WordPress(nginx1.25、PHP8.2、WordPress6.3、MySQL5.7)

文章目录 1、简介1.1 Nginx1.2 PHP1.3 WordPress1.4 MySQL 2、下载2.1 Nginx2.2 PHP2.3 WordPress2.4 MySQL 3、搭建环境3.1 Nginx3.2 PHP3.3 WordPress3.4 MySQL 4、配置WordPress4.1 选择语言4.2 配置数据库4.3 登录界面4.4 常规设置4.5 写作操作 结语 1、简介 WordPress是基…...

centos8 Error: Failed to download metadata for repo ‘appstream‘

2020 年 12 月 8 号&#xff0c;CentOS 官方宣布了停止维护 CentOS Linux 的计划&#xff0c;并推出了 CentOS Stream 项目&#xff0c;CentOS Linux 8 作为 RHEL 8 的复刻版本&#xff0c;生命周期缩短&#xff0c;于 2021 年 12 月 31 日停止更新并停止维护&#xff08;EOL&a…...

键盘上F1至F12键的作用

多年来&#xff0c;我们习惯了最上排的12个按键&#xff0c;从F1到F12&#xff0c;它们被称为“快速功能键”&#xff0c;可以让你更轻松地操作电脑&#xff1b;但是&#xff0c;很多人可能从未使用过它们&#xff0c;也从来不知道它们的用途。那么今天&#xff0c;就向大家科普…...

2023年湘潭大学OJ作业2 2023年下学期《C语言》作业0x01-数学计算 XTU OJ 1080,1081,1082,1083,1084

第一题 #include<stdio.h> #include<math.h>int main() {double a3.2,b4.7;aa*a,bb*b;double ressqrt(ab);printf("%g\n",res);return 0; } 注意math.h头文件的使用&#xff0c;还有sqrt是双精度的 第二题 #include<stdio.h> #include<math…...

C/C++ 进程间通信system V IPC对象超详细讲解(系统性学习day9)

目录 前言 一、system V IPC对象图解 1.流程图解&#xff1a; ​编辑 2.查看linux内核中的ipc对象&#xff1a; 二、消息队列 1.消息队列的原理 2.消息队列相关的API 2.1 获取或创建消息队列&#xff08;msgget&#xff09; 实例代码如下&#xff1a; 2.2 发送消息到消…...

python—如何提取word中指定内容

假设有一个Word&#xff0c;该Word中存在 “联系人” 关键字&#xff0c;如何将该Word中的联系人所对应的内容提取出来呢&#xff1f; 该Word内容如下所示&#xff1a; 要在给定的Word文档中提取出与"联系人"关键字对应的内容&#xff0c;可以使用Python的py…...

分享几个通用个人简历模板|行业通用

Home(https://cvjury.com/) 专业设计的简历模板。 在竞争激烈的就业市场中脱颖而出的有效策略。 侧重于向招聘人员传达独特的价值主张。 帮助创建引人注目的简历、求职信和LinkedIn资料。 面向毕业生和学生的个性化简历解决方案。 添加图片注释&#xff0c;不超过 140 字&…...

如何正确操作封箱机

前文跟大家分享过封箱机错误操作三案例&#xff0c;那么封箱机到底如何才能正确操作呢&#xff1f;今天就和您分享一下如何正确操作封箱机。 1、确定正确的电源电压进行接入。目前国内封箱机均采用220v 50hz电源电压&#xff0c;但也有一些定制型设备可能使用380v电源&#xff…...

mysql面试题7:MySQL事务原理是什么?MySQL事务的隔离级别有哪些?

该文章专注于面试,面试只要回答关键点即可,不需要对框架有非常深入的回答,如果你想应付面试,是足够了,抓住关键点 面试官:MySQL事务原理是什么? MySQL事务的原理是基于ACID(原子性、一致性、隔离性、持久性)特性来实现的,具体原理如下: Atomicity(原子性):事务…...

vue 项目打包性能分析插件 webpack-bundle-analyzer

webpack-bundle-analyzer 是 webpack 的插件&#xff0c;需要配合 webpack 和 webpack-cli 一起使用。这个插件可以读取输出文件夹&#xff08;通常是 dist&#xff09;中的 stats.json 文件&#xff0c;把该文件可视化展现&#xff0c;生成代码分析报告&#xff0c;可以直观地…...

C++ day2

1->x.mind 2->...

【Kafka专题】Kafka集群架构设计原理详解

目录 前言前置知识课程内容一、Kafka的Zookeeper元数据梳理1.1 zookeeper整体数据1.2 Controller Broker选举机制1.3 Leader Partition选举机制1.4 Leader Partition自动平衡机制*1.5 Partition故障恢复机制1.6 HW一致性保障-Epoch更新机制1.7 总结 学习总结感谢 前言 Kafka的…...

Docker 镜像的缓存特性

Author&#xff1a;rab 目录 前言一、构建缓存二、Pull 缓存总结 前言 首先我们要清楚&#xff0c;Docker 的镜像结构是分层的&#xff0c;镜像本身是只读的&#xff08;不管任何一层&#xff09;&#xff0c;当我们基于某镜像运行一个容器时&#xff0c;会有一个新的可写层被…...

Javascript 笔记:object

一部分object可以见&#xff1a;JavaScript 笔记 初识JavaScript&#xff08;变量&#xff09;_UQI-LIUWJ的博客-CSDN博客 1 in操作符 2 hasOwnProperty 3 获取一个object所拥有的所有property 不去原型链上找 4 定义data property...