分类归档 IT小常识

通过孟繁永

为什么不应该庆祝gitee比github更快

有搞开发的同事庆幸gitee速度很快,但也有同事提醒github打包下载代码更快。

找有用的新的项目肯定还是github优先,当github被限速越来越严重的时候,获取好项目的机会就越来越低,何况,自己的网连阿里云都会很慢,这样的办公条件有什么好庆幸的呢?

尽管我也不怎么在github上贡献代码,至少还点个真实的star,我不想在一个充斥者虚假的商业开源代码的gitee上浪费太多时间。

通过孟繁永

前后端分离的微信开放平台网站应用实现微信登录的本地调试

前面那一篇说了基于laravel+vue的实现方式和不要踩的坑,这一篇记录一下如何实现本地调试和线上部署。

当然,线上就按上一篇就好了,在vue-wxlogin里面配置appid(微信开放平台里面的网站应用的appid,需要先申请),laravel里需要配置appid和secret。

现在主要说一下如何在本地调试。vue-wxlogin显示二维码的时候需要appid和回调地址一致,如果把线上域名反向隧道到本地,那么线上就用不了,如果用本地的hosts来解析,那么就无法同时访问线上的版本。所以比较好的办法是专门申请一个测试用的网站应用,比如portal.local.futuremeng.com,通过vi /etc/hosts添加127.0.0.1 portal.local.futuremeng.com来将这个域名解析到本地环境。

然后在本地的nginx中添加一个站点,配置文件如下:

server {
     listen 80;
     server_name portal.local.futuremeng.com;
     charset utf8;
     location / {
        proxy_pass http://192.168.2.180:6060/;
        add_header Content-Security-Policy "script-src 'self' 'unsafe-inline' 'unsafe-eval'; object-src 'self'; style-src 'self' 'unsafe-inline';";
        proxy_set_header Host            $host;
        proxy_set_header X-Real-IP       $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

    }
}

其中,IP换成你自己的电脑的IP,如果是docker跑的nginx,需要指定为本机的局域网IP,也就是docker的宿主机IP,否则,如果设置成127.0.0.1是访问不到后面在vscode中建立的服务的。

最后打开vscode,打开vue项目,设置一下devServer的port,我用6060是为了同时npm run serve起多个前端项目,而这一个专用这个端口,以便nginx这里能够保持可用。

通过孟繁永

前后端分离的微信开放平台网站应用实现微信登录

先说下项目结构:前端vue,后端laravel。

其中前端用vue-wxlogin这个组件来显示微信登录的二维码。

这个组件中的appid填写微信开放平台中的网站应用的appid,redirect_uri填写微信开放平台中的网站应用登记的授权回调域。

这个授权回调域可以和网站应用的应用官网相同,也可以不同。

只要appid和redirect_uri与网站应用中的一致,二维码就可以显示。

为了调试方便,我在本地调试时把网站应用登记的授权回调域临时修改为另一个域名(该域名做了反向隧道,不知道是否必要)。

当二维码能正常显示时说明前端没有问题了。微信扫码确认后前端页面会跳转到redirect_uri(网址赋值需要用encodeURIComponent来编码一下,否则path可能会出错,比如hash模式时path跑到问号后面去了),跳转后的url会带上code参数。

接下来我们需要用这个code来换取openid和access_token。那么这就涉及到redirect_uri应该用前端域名还是后端域名呢?

我设置的是前端域名,也就是前端的login页显示二维码,然后扫码后跳转到weixin页,读取code并向后端接口发起获取openid的请求。这样,一则前端跳转时是本域跳转,不用重新加载页面,二则,也比较符合前后端分离的模式设计。

后端在code获取openid和access_token这里,我陷入了极大的困惑。后端我引入的是overtrue/laravel-wechat,其中有open_platform的接口,我以为可以像公众号和小程序的接口那样直接调用,比如

$this->app->handleAuthorize($input['code']);

就可以搞定了,但就在这一个方法上,我浪费了一个下午的时间。

具体不展开说了,可以参考https://blog.csdn.net/qq_39859060/article/details/83512563,但其实就算有这篇文章,我还是没搞清楚到底怎么回事,这个component_verify_ticket到底有什么用呢?

最后,是按https://learnku.com/laravel/t/36118#reply164754里面提到的第一种方法实现的。简单的一个file_get_contents就搞定了。

$url = "https://api.weixin.qq.com/sns/oauth2/access_token?appid=" . config('wechat.open_platform.default.app_id') .
            "&secret=" . config('wechat.open_platform.default.secret') . "&code=" . $input['code'] . "&grant_type=authorization_code";
 $jsonResult = file_get_contents($url);
 $data = json_decode($jsonResult, true);

再次吐槽微信难道从上到下都是跟张小龙一样的狗屎脑子吗?起名字和写文档都一样乱。

通过孟繁永

远程OBD是什么?

基于4G全网通信技术的车载WIFI热点OBD设备

通过OBD接口采集汽车ECU相关数据同时集成GPS定位,并通过4G网络将数据上传服务器,提供车载WIFI、车辆体检、车辆轨迹、精确的行程报告、油耗分析、驾驶行为分析等功能的智能汽车车载终端。

(1)即插即用、安装方便简单、支持远程升级、串口升级等各种升级方式。

(2)工业级模块,适合长期连续工作,抗干扰能力强。

(3)支持TDD-LTE和FDD-LTE,移动联通电信全网通,支持车载WIFI高速上网,同时最多接入10个终端设备上网。

(4)自动识别,支持车辆诊断协议,实时了解车辆的当前工作状态。

(5)内置GPS可以实现精准定位车辆具体位置。

(6)内置3D加速度传感器。

(7)设备自动转弯补偿、高速补偿,保证轨迹平滑顺畅。

(8)大容量FALSH存储,盲区数据自动补传。

(9)点火熄火报告,熄火自动休眠,低功耗。

(10)精准里程分析、油耗分析,不仅提供单次行程的里程油耗分析,还提供超速、高速、中速、低速、怠速的里程油耗分析。

(11)驾驶行为分析:设备提供急加速、急减速、急加油、急转弯、长时间怠速、超速、疲劳驾驶等的实时提醒,可以准备的分析出超速/高速行驶的时间、里程比例,车主行驶的时间和里程等。

(12)支持车辆体检、汽车发动机故障、保养提醒、节气门清理、电瓶亏电、超速、疲劳、冷却液温度高等10多种报警。

以上来自网络。

OBD最初是为了安全驾驶而出现的,随着环保要求越来越高,也成为环保检查的一种手段。但是看到其中的联网,还是有些恐怖的,车联网将GPS定位数据及车况数据实时上传。这是上行链路,同时,也可以基于这个通道完成下行控制。之前传播过一轮的远程控制汽车的零点其实不是未来,而是现实。

一个被破解了的汽车可能随时出现被控的“意外车祸”。技术上貌似不用太复杂,伪造一个基站就行了,之前的2G、4G基站伪装技术已经很成熟,现在的5G基站也不是什么太难的事情,貌似协议本身的漏洞依然存在。

其实,只要这个OBD像飞机的黑匣子一样只要收集了数据并且加上防篡改装置,就可以在查缉时通过有线连接获取或者即时开启无线链路来获取数据,没有必要一定实时上传。而且,真的故意躲避的,自然有办法屏蔽联网信号,造成上传故障,这个逻辑仍然是只管好人,不管坏人。但是让好人大大的增加了暴露的风险。

这些装置已经广泛的植入各种机动车辆,对于重型工业或者商用车辆还好,但装在旅居车或者家庭用的新能源汽车上,总觉的对个人隐私侵犯过多。不知道当时这政策出台的时候是如何通过的。

参考:

5.1 国六重型车远程排放监管要求
2018 年 8 月发布的《重型柴油车污染物排放限值及测量方法(中国第六阶
段)》(GB 17691-2018)标准中规定,从 6a 阶段开始,车辆应装备符合附录 Q
要求的远程排放管理车载终端,鼓励车辆按本标准附录 Q 要求进行数据发送。
从 6b 阶段开始,生产企业应保证车辆在全寿命期内,按本标准附录 Q 要求进行
数据发送,由生态环境主管部门和生产企业进行接收。
5.2 营运车辆在线监控标准
2011 年,交通运输部要求营运车辆必须与全国道路货运车辆公共监管与服
7
务平台进行联网,对运营车辆运行位置和时间进行监控,编制并实施了《道路运
输车辆卫星定位系统》系列标准。该系列标准对营运车辆上报位置信息所需要的
车载终端、车载终端与平台的通讯协议、平台间通讯协议及平台功能进行了规范。
5.3 电动汽车在线监控标准
GB/T 32960《电动汽车远程服务于管理系统》标准于 2017 年正式实施。标
准包含三个部分:总则、车载终端和通讯协议及数据格式。总则(GB/T 32960.1)
定义了系统的术语和定义、总体结构和一般要求。车载终端(GB/T 32960.2)规
定了电动汽车远程服务于管理系统车载终端的技术要求和试验方法。通讯协议及
数据格式(GB/T 32960.3)规定了通讯中的协议结构、通讯连接、数据包结构与
定义及数据单元格式与定义。

来源:

http://www.mee.gov.cn/xxgk2018/xxgk/xxgk06/202004/W020200423368282417631.pdf

通过孟繁永

mac版edge有个致命bug:更新后损坏所有记住的密码

没法用了,只能作为临时的测试浏览器使用。

通过孟繁永

jenkins中更好用的webhook插件generic-webhook-trigger

具体用法不说了,很多,请自行搜索,比github插件啥的好用多了。

通过孟繁永

以docker的方式运行composer时报sh: git: not found

操作系统:ubuntu20

环境:https://github.com/yeszao/dnmp

在宿主机本地安装的jenkins,在jenkins中设置job,composer install,截取部分输出如下:

Loading composer repositories with package information
Installing dependencies (including require-dev) from lock file
Package operations: 8 installs, 0 updates, 0 removals
  - Installing sebastian/code-unit-reverse-lookup (2.0.2): Downloading (connecting...)Downloading (100%)             Failed to download sebastian/code-unit-reverse-lookup from dist: /tmp/composer/cache/files/sebastian/code-unit-reverse-lookup does not exist and could not be created.
    Now trying to download from source
  - Installing sebastian/code-unit-reverse-lookup (2.0.2): Cloning ee51f9bb0c

                                                                                                                                                          
  [RuntimeException]                                                                                                                                      
  Failed to clone https://github.com/sebastianbergmann/code-unit-reverse-lookup.git, git was not found, check that it is installed and in your PATH env.  
                                                                                                                                                          
  sh: git: not found                                                                                                                                      
                                                                                                                                                          

install [--prefer-source] [--prefer-dist] [--dry-run] [--dev] [--no-dev] [--no-custom-installers] [--no-autoloader] [--no-scripts] [--no-progress] [--no-suggest] [-v|vv|vvv|--verbose] [-o|--optimize-autoloader] [-a|--classmap-authoritative] [--apcu-autoloader] [--ignore-platform-reqs] [--] [<packages>]...

skipping non-regular file "vendor/bin/carbon"
skipping non-regular file "vendor/bin/commonmark"
skipping non-regular file "vendor/bin/php-parse"
skipping non-regular file "vendor/bin/psysh"
skipping non-regular file "vendor/bin/var-dump-server"
Finished: SUCCESS

直接在宿主机进到相应的项目目录执行composer install显示:

Cannot create cache directory /tmp/composer/cache/repo/https---repo.packagist.org/, or directory is not writable. Proceeding without cache
Cannot create cache directory /tmp/composer/cache/files/, or directory is not writable. Proceeding without cache

                                                                            
  [Composer\Downloader\TransportException]                                  
  Content-Length mismatch, received 44625 bytes out of the expected 604017  
                                                                            

require [--dev] [--prefer-source] [--prefer-dist] [--fixed] [--no-progress] [--no-suggest] [--no-update] [--no-scripts] [--update-no-dev] [--update-with-dependencies] [--update-with-all-dependencies] [--ignore-platform-reqs] [--prefer-stable] [--prefer-lowest] [--sort-packages] [-o|--optimize-autoloader] [-a|--classmap-authoritative] [--apcu-autoloader] [--] [<packages>]...

这里的composer命令是通过在.bashrc中添加以下命令实现的:

# php7 composer
composer () {
    tty=
    tty -s && tty=--tty
    docker run \
        $tty \
        --interactive \
        --rm \
        --user www-data:www-data \
        --volume ~/dnmp/data/composer:/tmp/composer \
        --volume $(pwd):/app \
        --workdir /app \
        dnmp_php composer "$@"
}

提示找不到git,但显然是存在的,搜索发现可能是权限问题,就给~/dnmp/data/composer,还有/var/lib/jenkins/workspace目录改成777,问题解决。

通过孟繁永

OBS导播台的虚拟摄像头插件

OBS的官网上有win版的虚拟摄像头插件,可是我没有找到mac版的,在github上搜到了https://github.com/johnboiles/obs-mac-virtualcam

安装成功,但是,腾讯的微信和腾讯会议均不支持,无法选择摄像头。钉钉可以,而且默认就是虚拟摄像头。

通过孟繁永

[Jenkins]Error:403 No valid crumb was included in the request

最近在更新job的配置时经常出现以上的报错,开始还误以为是百度效率云的icode出了问题。跟百度效率云的团队反馈,对方一直没有响应,不知道是解散了(开个玩笑),还是觉得这不是个问题。

检索这个问题,发现很多文章都说取消全局安全配置中的CSRF Protection的勾选即可,但是我的jenkins里没有这个勾选框了。

然后又检索到https://www.cnblogs.com/kazihuo/p/12937071.html

Jenkins版本自2.204.6以来的重大变更有:删除禁用 CSRF 保护的功能。 从较旧版本的Jenkins 升级的实例将启用 CSRF 保护和设置默认的发行者,如果之前被禁用。

这篇文章给的办法是在启动jenkins时添加一个配置

-Dhudson.security.csrf.GlobalCrumbIssuerConfiguration.DISABLE_CSRF_PROTECTION=true

来实现这个关闭。

但是这样很不优雅,尤其是我有两个jenkins,一个基本上是最新版,一个是为了兼容百度效率云的插件而保留的一个很老的版本。最新版是直接在服务器上跑的jar版本,老版本是用的docker。以上的方法就不好玩了。

所以受到https://stackoverflow.com/questions/49888756/how-do-you-disable-jenkins-csrf-with-script的启发,我安装了一个Strict Crumb Issuer插件,然后在跨站请求伪造保护这里,选择这个插件来工作,配置默认。保存就好了。

通过孟繁永

将自建jenkins注册到百度效率云的ipipe

对应百度效率云的这个文档:https://cloud.baidu.com/doc/XLY/s/Fjwvy8aq6#jenkins-%E6%8F%92%E4%BB%B6%E7%94%A8%E6%88%B7%E6%8C%87%E5%8D%97

由于官方的文档用起来很多误解,这里做一下简单的说明,方便大家使用。

首先是jenkins的安装。由于百度效率云目前的jenkins插件比较老,用最新版的jenkins无法配置成功,所有需要为百度效率云部署一个专用的jenkins,这里我称之为中继jenkins。最初,我是按百度的文档所提到的方式,下载jenkis.war,并使用

nohup java -Dfile.encoding=utf-8 -Dhudson.model.ParametersAction.keepUndefinedParameters=true -jar jenkins.war –httpPort=8888 &

这个命令来部署,同时我的业务jenkins是用docker的方式部署。后来,我将业务jenkins改为yum install jenkins直接安装在宿主机了,于是需要把这个效率云jenkins改为docker,避免冲突。

部署中继jenkins,我使用的是以下命令:

docker run -d -u root –restart=always -p 8888:8080  -v /jenkins_xly:/var/jenkins_home –name jenkins_xly -idt jenkins:2.19.1

运行后打开IP:8888,即是通常的账户密码初始化过程,接下来是插件,我取消了所有插件的安装,因为这个jenkins实例只用来转发百度效率云的构建推送。

下载百度效率云的jenkins插件

ipipe-agent.hpi,地址在文章开头那个链接中,通过百度网盘下载。在系统管理-插件管理-高级那里上传这个插件。

回到系统管理,找到iPipe agent management,按照提示填写几个字段。

  • ipipe Url:效率云:https://xly.bce.baidu.com/${企业名}/${项目名}/ipipe,可以打开效率云的ipipe页面,复制上面的url,将多余的参数去掉即可。其中企业名好理解,但项目名不好理解,因为效率云上实际上可能已经有多个项目,这里选择你要用的主要的项目,一般也是英文字母。
  • enterprise:就是上面这个url中的企业名,实际上是英文字母。
  • Jenkins Name:给当前的jenkins取个名字,如果是重复设置(像我是之前部署过重新部署的),最好跟之前的不同,否则在效率云看到的是一样的job,无法区分。在效率云的流水线设置时,下拉框显示为:Jenkins Name+ Jenkins Job Name(这个JobName就是当前这个jenkins中配置的job的项目名称。)
  • Username:是当前的jenkins实例的用户,比如用你登录jenkins的这个用户名。

点击Save,正常的情况下就直接跳转了,没有报错,如果有问题,会有报错,比如用最新版的jenkins,可以装上这个插件,但在这里提交时会报错,问题出在有一个JenkinsUUID的参数,在最新版的jenkins上是空的,我跟百度效率云团队提过这个问题,但至今尚未修复。所以只好多此一举,继续用jenkins2.19.1来中继。

创建jenkins的job

item name即项目名称,尽量用英文字母写清楚,前面提到了,这个名字会出现在效率云中作为选择job的依据。

因为我前面部署这个中继时没有安装其他插件,所以我这里只需要选择构建一个自由风格的软件项目即可。而实际上,这个job需要做的也只是转发一下请求。

在job的General配置中,找到iPipe配置,只需要填写项目标识,这个项目标识跟ipipeUrl中那个项目名是一回事儿,但实际上效率云在相应的项目中显示相关job时应该是以这个job中配置的项目名为准,而前面ipipeUrl中那个项目名应该是插件的历史遗留问题,早期只考虑到一个项目的注册方式。

然后在构建Build中添加一个执行shell,只添加一行命令:

curl {你的业务jenkins的某个job的webhook地址}

job的配置到此结束。

接下来,我们先去效率云验证下这个job能否被触发。

按照百度效率云的文档配置流水线即可,需要注意的是我开始有一个误区,就是代码触发时要选merge,而不是change。否则提交代码到代码库时不会触发流水线。

最后,简单提一下我们的业务jenkins需要做什么配置来响应中继jenkins的curl请求,这个未必是最好的方式,因为不能传递参数了,也许应该用触发远程构建之类的实现,我对jenkins还不够了解。

假定按curl的话,我们需要在业务jenkins安装一个generic-webhook-trigger插件,然后在业务jenkins的job中启用这个插件的配置,填写token这个参数,这个token只要在当前的jenkins的jobs中不重复即可,但为了方便识别,我一般会加上项目标识,比如itemname-rR74nddfdsfs23mm

然后上面curl后面的网址就有了,格式是

http://JENKINS_URL/generic-webhook-trigger/invoke?token={token}