当前位置: 首页 > news >正文

做微信网站价格/优化网站服务

做微信网站价格,优化网站服务,wordpress多功能主题 cosy,网站开发行业竞争大吗前言 是这样的,之前接了一个金主的单子,他想在淘宝开个小鱼零食的网店,想对目前这个市场上的商品做一些分析,本来手动去做统计和分析也是可以的,这些信息都是对外展示的,只是手动比较麻烦,所以…

前言

是这样的,之前接了一个金主的单子,他想在淘宝开个小鱼零食的网店,想对目前这个市场上的商品做一些分析,本来手动去做统计和分析也是可以的,这些信息都是对外展示的,只是手动比较麻烦,所以想托我去帮个忙。

图片

一、 项目要求:

具体的要求如下:

1.在淘宝搜索“小鱼零食”,想知道前10页搜索结果的所有商品的销量和金额,按照他划定好的价格区间来统计数量,给我划分了如下的一张价格区间表:

图片

2.这10页搜索结果中,商家都是分布在全国的哪些位置?

3.这10页的商品下面,用户评论最多的是什么?

4.从这些搜索结果中,找出销量最多的10家店铺名字和店铺链接。

从这些要求来看,其实这些需求也不难实现,我们先来看一下项目的效果。

二、效果预览

获取到数据之后做了下分析,最终做成了柱状图,鼠标移动可以看出具体的商品数量。

图片

在10~30元之间的商品最多,越往后越少,看来大多数的产品都是定位为低端市场。

然后我们再来看一下全国商家的分布情况:

图片

可以看出,商家分布大多都是在沿海和长江中下游附近,其中以沿海地区最为密集。

然后再来看一下用户都在商品下面评论了一些什么:

图片

字最大的就表示出现次数最多,口感味道、包装品质、商品分量和保质期是用户评价最多的几个方面,那么在产品包装的时候可以从这几个方面去做针对性阐述,解决大多数人比较关心的问题。

最后就是销量前10的店铺和链接了。

图片

在拿到数据并做了分析之后,我也在想,如果这个东西是我来做的话,我能不能看出来什么东西?或许可以从价格上找到切入点,或许可以从产品地理位置打个差异化,又或许可以以用户为中心,由外而内地做营销。

越往深想,越觉得有门道,算了,对于小鱼零食这一块我是外行,不多想了。

三、爬虫源码

由于源码分了几个源文件,还是比较长的,所以这里就不跟大家一一讲解了,懂爬虫的人看几遍就看懂了,不懂爬虫的说再多也是云里雾里,等以后学会了爬虫再来看就懂了。

测试淘宝爬虫数据 apikey secret

import csvimport osimport timeimport wordcloudfrom selenium import webdriverfrom selenium.webdriver.common.by import Bydef tongji():    prices = []    with open('前十页销量和金额.csv', 'r', encoding='utf-8', newline='') as f:        fieldnames = ['价格', '销量', '店铺位置']        reader = csv.DictReader(f, fieldnames=fieldnames)        for index, i in enumerate(reader):            if index != 0:                price = float(i['价格'].replace('¥', ''))                prices.append(price)    DATAS = {'<10': 0, '10~30': 0, '30~50': 0,             '50~70': 0, '70~90': 0, '90~110': 0,             '110~130': 0, '130~150': 0, '150~170': 0, '170~200': 0, }    for price in prices:        if price < 10:            DATAS['<10'] += 1        elif 10 <= price < 30:            DATAS['10~30'] += 1        elif 30 <= price < 50:            DATAS['30~50'] += 1        elif 50 <= price < 70:            DATAS['50~70'] += 1        elif 70 <= price < 90:            DATAS['70~90'] += 1        elif 90 <= price < 110:            DATAS['90~110'] += 1        elif 110 <= price < 130:            DATAS['110~130'] += 1        elif 130 <= price < 150:            DATAS['130~150'] += 1        elif 150 <= price < 170:            DATAS['150~170'] += 1        elif 170 <= price < 200:            DATAS['170~200'] += 1
    for k, v in DATAS.items():        print(k, ':', v)def get_the_top_10(url):    top_ten = []    # 获取代理    ip = zhima1()[2][random.randint(0, 399)]    # 运行quicker动作(可以不用管)    os.system('"C:\Program Files\Quicker\QuickerStarter.exe" runaction:5e3abcd2-9271-47b6-8eaf-3e7c8f4935d8')    options = webdriver.ChromeOptions()    # 远程调试Chrome    options.add_experimental_option('debuggerAddress', '127.0.0.1:9222')    options.add_argument(f'--proxy-server={ip}')    driver = webdriver.Chrome(options=options)    # 隐式等待    driver.implicitly_wait(3)    # 打开网页    driver.get(url)    # 点击部分文字包含'销量'的网页元素    driver.find_element(By.PARTIAL_LINK_TEXT, '销量').click()    time.sleep(1)    # 页面滑动到最下方    driver.execute_script('window.scrollTo(0,document.body.scrollHeight)')    time.sleep(1)    # 查找元素    element = driver.find_element(By.ID, 'mainsrp-itemlist').find_element(By.XPATH, './/div[@class="items"]')    items = element.find_elements(By.XPATH, './/div[@data-category="auctions"]')    for index, item in enumerate(items):        if index == 10:            break        # 查找元素        price = item.find_element(By.XPATH, './div[2]/div[1]/div[contains(@class,"price")]').text        paid_num_data = item.find_element(By.XPATH, './div[2]/div[1]/div[@class="deal-cnt"]').text        store_location = item.find_element(By.XPATH, './div[2]/div[3]/div[@class="location"]').text        store_href = item.find_element(By.XPATH, './div[2]/div[@class="row row-2 title"]/a').get_attribute(            'href').strip()        # 将数据添加到字典        top_ten.append(            {'价格': price,             '销量': paid_num_data,             '店铺位置': store_location,             '店铺链接': store_href             })
    for i in top_ten:        print(i)def get_top_10_comments(url):    with open('排名前十评价.txt', 'w+', encoding='utf-8') as f:        pass    # ip = ipidea()[1]    os.system('"C:\Program Files\Quicker\QuickerStarter.exe" runaction:5e3abcd2-9271-47b6-8eaf-3e7c8f4935d8')    options = webdriver.ChromeOptions()    options.add_experimental_option('debuggerAddress', '127.0.0.1:9222')    # options.add_argument(f'--proxy-server={ip}')    driver = webdriver.Chrome(options=options)    driver.implicitly_wait(3)    driver.get(url)    driver.find_element(By.PARTIAL_LINK_TEXT, '销量').click()    time.sleep(1)    element = driver.find_element(By.ID, 'mainsrp-itemlist').find_element(By.XPATH, './/div[@class="items"]')    items = element.find_elements(By.XPATH, './/div[@data-category="auctions"]')    original_handle = driver.current_window_handle    item_hrefs = []    # 先获取前十的链接    for index, item in enumerate(items):        if index == 10:            break        item_hrefs.append(            item.find_element(By.XPATH, './/div[2]/div[@class="row row-2 title"]/a').get_attribute('href').strip())    # 爬取前十每个商品评价    for item_href in item_hrefs:        # 打开新标签        # item_href = 'https://item.taobao.com/item.htm?id=523351391646&ns=1&abbucket=11#detail'        driver.execute_script(f'window.open("{item_href}")')        # 切换过去        handles = driver.window_handles        driver.switch_to.window(handles[-1])
        # 页面向下滑动一部分,直到让评价那两个字显示出来        try:            driver.find_element(By.PARTIAL_LINK_TEXT, '评价').click()        except Exception as e1:            try:                x = driver.find_element(By.PARTIAL_LINK_TEXT, '评价').location_once_scrolled_into_view                driver.find_element(By.PARTIAL_LINK_TEXT, '评价').click()            except Exception as e2:                try:                    # 先向下滑动100,放置评价2个字没显示在屏幕内                    driver.execute_script('var q=document.documentElement.scrollTop=100')                    x = driver.find_element(By.PARTIAL_LINK_TEXT, '评价').location_once_scrolled_into_view                except Exception as e3:                    driver.find_element(By.XPATH, '/html/body/div[6]/div/div[3]/div[2]/div/div[2]/ul/li[2]/a').click()        time.sleep(1)        try:            trs = driver.find_elements(By.XPATH, '//div[@class="rate-grid"]/table/tbody/tr')            for index, tr in enumerate(trs):                if index == 0:                    comments = tr.find_element(By.XPATH, './td[1]/div[1]/div/div').text.strip()                else:                    try:                        comments = tr.find_element(By.XPATH,                                                   './td[1]/div[1]/div[@class="tm-rate-fulltxt"]').text.strip()                    except Exception as e:                        comments = tr.find_element(By.XPATH,                                                   './td[1]/div[1]/div[@class="tm-rate-content"]/div[@class="tm-rate-fulltxt"]').text.strip()                with open('排名前十评价.txt', 'a+', encoding='utf-8') as f:                    f.write(comments + '\n')                    print(comments)        except Exception as e:            lis = driver.find_elements(By.XPATH, '//div[@class="J_KgRate_MainReviews"]/div[@class="tb-revbd"]/ul/li')            for li in lis:                comments = li.find_element(By.XPATH, './div[2]/div/div[1]').text.strip()                with open('排名前十评价.txt', 'a+', encoding='utf-8') as f:                    f.write(comments + '\n')                    print(comments)def get_top_10_comments_wordcloud():    file = '排名前十评价.txt'    f = open(file, encoding='utf-8')    txt = f.read()    f.close()
    w = wordcloud.WordCloud(width=1000,                            height=700,                            background_color='white',                            font_path='msyh.ttc')    # 创建词云对象,并设置生成图片的属性
    w.generate(txt)    name = file.replace('.txt', '')    w.to_file(name + '词云.png')    os.startfile(name + '词云.png')def get_10_pages_datas():    with open('前十页销量和金额.csv', 'w+', encoding='utf-8', newline='') as f:        f.write('\ufeff')        fieldnames = ['价格', '销量', '店铺位置']        writer = csv.DictWriter(f, fieldnames=fieldnames)        writer.writeheader()    infos = []    options = webdriver.ChromeOptions()    options.add_experimental_option('debuggerAddress', '127.0.0.1:9222')    # options.add_argument(f'--proxy-server={ip}')    driver = webdriver.Chrome(options=options)    driver.implicitly_wait(3)    driver.get(url)    # driver.execute_script('window.scrollTo(0,document.body.scrollHeight)')    element = driver.find_element(By.ID, 'mainsrp-itemlist').find_element(By.XPATH, './/div[@class="items"]')    items = element.find_elements(By.XPATH, './/div[@data-category="auctions"]')    for index, item in enumerate(items):        price = item.find_element(By.XPATH, './div[2]/div[1]/div[contains(@class,"price")]').text        paid_num_data = item.find_element(By.XPATH, './div[2]/div[1]/div[@class="deal-cnt"]').text        store_location = item.find_element(By.XPATH, './div[2]/div[3]/div[@class="location"]').text        infos.append(            {'价格': price,             '销量': paid_num_data,             '店铺位置': store_location})    try:        driver.find_element(By.PARTIAL_LINK_TEXT, '下一').click()    except Exception as e:        driver.execute_script('window.scrollTo(0,document.body.scrollHeight)')        driver.find_element(By.PARTIAL_LINK_TEXT, '下一').click()    for i in range(9):        time.sleep(1)        driver.execute_script('window.scrollTo(0,document.body.scrollHeight)')        element = driver.find_element(By.ID, 'mainsrp-itemlist').find_element(By.XPATH, './/div[@class="items"]')        items = element.find_elements(By.XPATH, './/div[@data-category="auctions"]')        for index, item in enumerate(items):            try:                price = item.find_element(By.XPATH, './div[2]/div[1]/div[contains(@class,"price")]').text            except Exception:                time.sleep(1)                driver.execute_script('window.scrollTo(0,document.body.scrollHeight)')                price = item.find_element(By.XPATH, './div[2]/div[1]/div[contains(@class,"price")]').text            paid_num_data = item.find_element(By.XPATH, './div[2]/div[1]/div[@class="deal-cnt"]').text            store_location = item.find_element(By.XPATH, './div[2]/div[3]/div[@class="location"]').text            infos.append(                {'价格': price,                 '销量': paid_num_data,                 '店铺位置': store_location})        try:            driver.find_element(By.PARTIAL_LINK_TEXT, '下一').click()        except Exception as e:            driver.execute_script('window.scrollTo(0,document.body.scrollHeight)')            driver.find_element(By.PARTIAL_LINK_TEXT, '下一').click()        # 一页结束        for info in infos:            print(info)        with open('前十页销量和金额.csv', 'a+', encoding='utf-8', newline='') as f:            fieldnames = ['价格', '销量', '店铺位置']            writer = csv.DictWriter(f, fieldnames=fieldnames)            for info in infos:                writer.writerow(info)if __name__ == '__main__':    url = 'https://s.taobao.com/search?q=%E5%B0%8F%E9%B1%BC%E9%9B%B6%E9%A3%9F&imgfile=&commend=all&ssid=s5-e&search_type=item&sourceId=tb.index&spm=a21bo.21814703.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306&bcoffset=4&ntoffset=4&p4ppushleft=2%2C48&s=0'    # get_10_pages_datas()    # tongji()    # get_the_top_10(url)    # get_top_10_comments(url)    get_top_10_comments_wordcloud()

通过上面的代码,我们能获取到想要获取的数据,然后再Bar和Geo进行柱状图和地理位置分布展示,这两块大家可以去摸索一下。

相关文章:

Python 爬虫实战之爬淘宝商品并做数据分析

前言 是这样的&#xff0c;之前接了一个金主的单子&#xff0c;他想在淘宝开个小鱼零食的网店&#xff0c;想对目前这个市场上的商品做一些分析&#xff0c;本来手动去做统计和分析也是可以的&#xff0c;这些信息都是对外展示的&#xff0c;只是手动比较麻烦&#xff0c;所以…...

Python爬虫-requests.exceptions.SSLError: HTTPSConnectionPool疑难杂症解决(1)

前言 本文是该专栏的第7篇,后面会持续分享python爬虫案例干货,记得关注。 在爬虫项目开发中,偶尔可能会遇到SSL验证问题“requests.exceptions.SSLError: HTTPSConnectionPool(host=www.xxxxxx.com, port=443): Max retries exceeded with url ...”。亦或是验证之后的提示…...

12:STM32---RTC实时时钟

目录 一:时间相关 1:Unix时间戳 2: UTC/GMT 3:时间戳转化 二:BKP 1:简历 2:基本结构 三: RTC 1:简历 2: 框图 3:RTC基本结构 4:RTC操作注意 四:案例 A:读写备份寄存器 1:连接图 2: 步骤 3: 代码 B:实时时钟 1:连接图 2:函数介绍 3:代码 一:时间相关 1:Un…...

【动态规划刷题 16】最长等差数列 (有难度) 等差数列划分 II - 子序列

1027. 最长等差数列 https://leetcode.cn/problems/longest-arithmetic-subsequence/ 给你一个整数数组 nums&#xff0c;返回 nums 中最长等差子序列的长度。 回想一下&#xff0c;nums 的子序列是一个列表 nums[i1], nums[i2], …, nums[ik] &#xff0c;且 0 < i1 <…...

【postgresql】替换 mysql 中的ifnull()

数据库由mysql 迁移到postgresql&#xff0c;程序在执行查询时候报错。 HINT: No function matches the given name and argument types. You might need to add explicit type casts. CONTEXT: referenced column: ifnull 具体SQL: SELECT ifnull(phone,) FROM c_user p…...

单例模式(懒汉式,饿汉式,变体)

单例模式&#xff0c;用于确保一个类只有一个实例&#xff0c;并提供一个全局访问点以访问该实例。 饿汉式&#xff08;Eager Initialization&#xff09; 程序启动时就创建实例 #include <iostream> class SingletonEager { private:static SingletonEager* instanc…...

Java Lambda表达式:简洁且强大的函数式编程工具

Lambda表达式是Java 8及以后版本中引入的一种函数式编程特性。它是一种匿名函数&#xff0c;允许开发人员以简洁和易读的方式编写代码&#xff0c;并且可以作为参数传递给方法或存储在变量中。Lambda表达式的基本语法如下&#xff1a;(parameters) -> expression&#xff0c…...

开源框架中的责任链模式实践

作者&#xff1a;vivo 互联网服务器团队-Wang Zhi 责任链模式作为常用的设计模式而被大家熟知和使用。本文介绍责任链的常见实现方式&#xff0c;并结合开源框架如Dubbo、Sentinel等进行延伸探讨。 一、责任链介绍 在GoF 的《设计模式》一书中对责任链模定义的&#xff1a;将…...

智能配电系统:保障电力运行安全、可控与高效

智能配电系统是一种先进的电力分配技术&#xff0c;它通过智能化、数字化和网络化等方式&#xff0c;有效地保障了电力运行的安全、可控和高效。 力安科技智能配电系统是在配电室&#xff08;含高压柜、变压器、低压柜&#xff09;、箱式变电站、配电箱及动力柜&#xff08…...

MySQL学习系列(11)-每天学习10个知识

目录 1. 数据库设计的关键因素2. 使用存储过程和函数来提高性能和可重用性3. MySQL性能优化4. 使用视图简化查询和提供数据安全性5. 数据库备份和恢复策略的重要性和实践经验6. 在分布式系统中保证数据一致性和可用性7. 理解MySQL的复制和其在实际应用中的作用8. 使用游标进行分…...

如何通过Gunicorn和Niginx部署Django

本文主要介绍如何配置Niginx加载Django的静态资源文件&#xff0c;也就是Static 1、首先需要将Django项目中的Settings.py 文件中的两个参数做以下设置&#xff1a; STATIC_URL /static/ STATIC_ROOT os.path.join(BASE_DIR, static) 然后在宝塔面板中执行python manage.…...

C语言 cortex-A7核UART总线实验

一、C 1&#xff09;uart4.h #ifndef __UART4_H__ #define __UART4_H__ #include "stm32mp1xx_rcc.h" #include "stm32mp1xx_gpio.h" #include "stm32mp1xx_uart.h&quo…...

asp.net C#免费反编译工具ILSpy

在维护一个没有源码的C#项目&#xff0c;只能反编译了。 项目主页 https://github.com/icsharpcode/ILSpy 使用方法 中文界面使用简单&#xff0c;把你要反编译的dll拖过去就可以了。好使&#xff01;&#xff01;&#xff01;...

演讲实录:DataFun 垂直开发者社区基于指标平台自主洞察北极星指标

在7月14日举办的 Kyligence 用户大会的数智新应用论坛上&#xff0c;DataFun COO 杜颖女士为大家带来了《垂直开发者社区基于指标平台自主洞察北极星指标》的主题演讲。接下来&#xff0c;我们一起看看 DataFun 如何在没有专门的 IT 团队的情况下&#xff0c;实现对北极星指标的…...

ffmpeg编译 Error: operand type mismatch for `shr‘

错误如下&#xff1a; D:\msys2\tmp\ccUxvBjQ.s: Assembler messages: D:\msys2\tmp\ccUxvBjQ.s:345: Error: operand type mismatch for shr D:\msys2\tmp\ccUxvBjQ.s:410: Error: operand type mismatch for shr D:\msys2\tmp\ccUxvBjQ.s:470: Error: operand type mismatch…...

【Windows Server 2012 R2搭建FTP站点】

打开服务器管理器——添加角色和功能 下一步 下一步 下一步 选择FTP服务器&#xff0c;勾上FTP服务和FTP扩展&#xff0c;点击下一步 安装 安装完成关闭 打开我们的IIS服务器 在WIN-XXX主页可以看到我们的FTP相关菜单 右键WIN-XXXX主页&#xff0c;添加FTP站点 输入站点名称-FT…...

python教程:使用gevent实现高并发并限制最大并发数

嗨喽~大家好呀&#xff0c;这里是魔王呐 ❤ ~! python更多源码/资料/解答/教程等 点击此处跳转文末名片免费获取 import time import gevent from gevent.pool import Pool from gevent import monkey # 一&#xff0c;定义最大并发数 p Pool(20) # 二&#xff0c;导入gevent…...

借助reCAPTCHA实现JavaScript验证码功能

前言 验证码&#xff08;CAPTCHA&#xff09;是一种常见的安全验证机制&#xff0c;常用于区分真实用户和机器人。使用验证码可以有效防止恶意登录、自动注册或者密码爆破等攻击。本文将借助reCAPTCHA第三方库来实现JavaScript验证码功能。 验证码的原理 验证码的核心思想是要…...

监控数据的采集方式及原理

采集方法使用频率从高到低依次是读取 /proc目录、执行命令行工具、远程黑盒探测、拉取特定协议的数据、连接到目标对象执行命令、代码埋点、日志解析。 读取 /proc目录 /proc是一个位于内存中的伪文件系统&#xff0c;而在该目录下保存的不是真正的文件和目录&#xff0c;而是…...

Vue路由与node.js环境搭建

目录 前言 一.Vue路由 1.什么是spa 1.1简介 1.2 spa的特点 1.3 spa的优势以及未来的挑战 2.路由的使用 2.1 导入JS依赖 2.2 定义两个组件 2.3 定义组件与路径对应关系 2.4 通过路由关系获取路由对象 2.5 将对象挂载到vue实例中 2.6 定义触发路由事件的按钮 2.7 定…...

腾讯云16核服务器性能测评_轻量和CVM配置大全

腾讯云16核服务器配置大全&#xff0c;CVM云服务器可选择标准型S6、标准型SA3、计算型C6或标准型S5等&#xff0c;目前标准型S5云服务器有优惠活动&#xff0c;性价比高&#xff0c;计算型C6云服务器16核性能更高&#xff0c;轻量16核32G28M带宽优惠价3468元15个月&#xff0c;…...

Postman应用——下载注册和登录

文章目录 下载安装注册登录注册账号登录账号 下载安装 Postman下载&#xff1a;https://www.postman.com/ 访问链接后&#xff0c;进入首页&#xff0c;根据自己的操作系统下载对应的版本。 找到下载到的目录直接双击.exe文件&#xff0c;会默认安装在C盘&#xff0c;安装完会…...

uni-app混合开发 navigateTo、reLaunch、redirectTo、switchTab区别

1.navigateTo 保留当前页面&#xff0c;跳转到应用内的某个页面&#xff0c;使用uni.navigateBack可以返回到原页面。 要注意的是navigateTo只能跳转的应用内非 tabBar 的页面的路径 , 路径后可以带参数&#xff1b;如果跳转url参数为tabBar的路径则无法进行跳转 2.redir…...

专业软件测评中心:关于软件性能测试的实用建议

软件性能测试是通过自动化的测试工具模拟多种正常、峰值以及异常负载条件来对系统的各项性能指标进行测试。性能测试在软件的质量保证中起着重要的作用&#xff0c;它包括的测试内容丰富多样。 一、软件性能测试的实用建议   1、制定清晰的测试目标&#xff1a;明确测试目标…...

vue项目通过json-bigint在前端处理java雪花id过长导致失去精度问题

这里 我简单模仿了一个接口 这里 我单纯 返回一个long类型的雪花id 然后 前端 用 axios 去请求 大家知道 axios 会对请求数据做一次处理 而我们 data才是拿到我们java这边实际返回的东西 简单说 就是输出一下我们后端返回 的内容 这里 我们网络中显示的是 35866101868095488…...

【全志V3s】SPI NAND Flash 驱动开发

文章目录 一、硬件介绍V3s的启动顺序 二、驱动支持U-Boot驱动主线 Linux 驱动已经支持 三、烧录工具 xfel四、构建U-Boot&#xff08;官方的Uboot&#xff09;先编译一下开始spi nand flash 代码层面的适配修改menuconfig配置ARM architecture配置Support for SPI Nand Flash o…...

【二叉树】二叉树展开为链表-力扣 114 题

&#x1f49d;&#x1f49d;&#x1f49d;欢迎来到我的博客&#xff0c;很高兴能够在这里和您见面&#xff01;希望您在这里可以感受到一份轻松愉快的氛围&#xff0c;不仅可以获得有趣的内容和知识&#xff0c;也可以畅所欲言、分享您的想法和见解。 推荐:kuan 的首页,持续学…...

NLP文本生成全解析:从传统方法到预训练完整介绍

目录 1. 引言1.1 文本生成的定义和作用1.2 自然语言处理技术在文本生成领域的使用 2 传统方法 - 基于统计的方法2.1.1 N-gram模型2.1.2 平滑技术 3. 传统方法 - 基于模板的生成3.1 定义与特点3.2 动态模板 4. 神经网络方法 - 长短时记忆网络(LSTM)LSTM的核心概念PyTorch中的LST…...

OpenBA:开源模型家族再添一员!从头训练的15B中英非对称Encoder-Decoder结构双语模型...

苏州大学从头训练的双语非对称Encoder-Decoder模型OpenBA已正式开源&#xff01; 主要亮点包括&#xff1a; 亮点一&#xff1a;此模型为中文开源社区贡献了一个有代表性的编码器解码器大语言模型&#xff0c;其训练过程&#xff08;包括数据收集与清洗、模型构建与训练&#x…...

安防视频监控平台EasyNVR无法控制云台,该如何解决?

TSINGSEE青犀视频安防监控平台EasyNVR可支持设备通过RTSP/Onvif协议接入&#xff0c;并能对接入的视频流进行处理与多端分发&#xff0c;包括RTSP、RTMP、HTTP-FLV、WS-FLV、HLS、WebRTC等多种格式。在智慧安防等视频监控场景中&#xff0c;EasyNVR可提供视频实时监控直播、云端…...