• Azure DevOps(三)Azure Pipeline 自动化将程序包上传到 Azure Blob Storage


    一,引言

      结合前几篇文章,我们了解到 Azure Pipeline 完美的解决了持续集成,自动编译。同时也兼顾了 Sonarqube 作为代码扫描工具。接下来另外一个问题出现了,Azure DevOps 由于有人员限制,项目上不能给非开发人员或者外包成员开权限,这个时候就需要将编译好的程序包上传到公共网盘或者私有的远端存储账户,方便下载。那么我们今天就结合 Azure storage account 来实践一次利用 Azure Release Pipeline 自动将编译好的程序包发布到 Blob Storage 中。接下来就开始了今天的实践内容。

    --------------------Azure DevOps 系列--------------------

    1,Azure DevOps(一)基于 Net6.0 的 WPF 程序如何进行持续集成、持续编译

    2,Azure DevOps(二)Azure Pipeline 集成 SonarQube 维护代码质量和安全性

    3,Azure DevOps(三)Azure Pipeline 自动化将程序包上传到 Azure Blob Storage

    二,正文

    1,创建存储账户

    我们登录 Azure Portal,点击 “create a resource” 创建新的资源

    输入 “storage account” 查看资源,并进行创建

    输入以下参数:

    Resource group:“Web_Test_SA_RG”(已有的资源组,也可以选择创建新的)

    Storage account name:“cloudplatform”

    Performance 选择:“Standard”

    Redundancy 选择:“Locally-redundant storage(LRS)”

    点击 “Review” 进行创建前的预校验

    预校验完成后,点击 “Create” 进行创建

    等待创建完成后,跳转到该资源进行查看

    2,为 service principal 授权

    创建 sp 的过程大家可以参考:Azure AD(四)知识补充-服务主体

    接下来就是为 Azure DevOps 的 Service connection (也就是服务主体设置权限)

    选择 “cloudplatform =》Access Control”,点击 “+ Add”,添加角色分配

    选择 “Storage Blob Data Contributor” 点击 “Next”

    点击 “+ Select members”,选择好 service principal,点击 “select” 进行选择确定

    点击 ”Review + assign“ 进行确定预览指派权限控制

    稍后,我们就可以看到当前 sp 的权限信息,Scope 为 ”This resource“

    3,创建 Release Pipeline

    登录 azure devops 找到上一篇课程中创建的项目 “NetCore_WPF_Sample” 项目

    选择 “Pilelines =》Releases”,点击 “New pipeline” 创建新的管道作业

    点击 ”Artifacts + Add“ 添加发布源

    Source type 选择:”Build“

    Project:”NetCore_WPF_Sample“

    Source(build pipeline)选择 :”yunqian44.Standard.Tool.Platform“(build Pipeline)

    Dafault version:”Latest“

    Source alias 选择默认

    点击 ”Add“ 进行添加操作

    接下来点击箭头所指的位置,添加任务项。

    1)添加新的 ”Task“,输入 ”Azure CLI“ 进行查询,并添加

    输入以下参数

    Manage 选择:”vs“(自己项目所用的 serviceconnection)

    Script Type:”Shell“

    Script Location:”Inline script“

    Inline Script:

    复制代码
    # create azure resource group
    az group create --location eastasia --name $(terraform_rg)
    
    # create azure storage account
    az storage account create --name $(storage_account) --resource-group $(terraform_rg) --location eastasia --sku Standard_LRS
    
    # create storage account container for package blob 
    az storage container create --name $(storage_account_container) --account-name $(storage_account)
    复制代码

    2)搜索 ”Archive files“,添加压缩任务

    修改 需要压缩的文件或者文件夹的根目录

    如下图所示:

    源:改为 Build Pipeline 输入目录下的 drop 文件

    目标:改为Build Pipeline 输入目录下已 BuildId 命名的压缩文件

    接下来,我们添加 ”Azure file copy“,添加文件拷贝任务

    输入一下参数,需要注意  存储账户,容器名称 Blob 前缀都已变量的形式体现

    Source 选择 ”Archive“ 任务输出的压缩文件的目录

    Azure Subscription 选择实际项目

    Destination Type 选择:”Azure Blob“

    RM Storage Account:$(storage_account) 

    Container Name:$(storage_account_container)

    Blob prefix:$(Build.BuildId).zip

    最后,我们需要添加变量,选择 “Variable”,点击 “+” 进行操作,输入以下参数,并保存

    Name Value
    storage_account cloudplatform
    storage_account_container wpf-client
    terraform_rg Web_Test_SA_RG

    点击 “Create release” 尝试运行 release pipeline 

    点击 “OK” 确认此操作

    Release Pipeline 运行成功

    存储账户的容器 “” 也被创建好了

    编译好的程序包已被上传到 Storage Account 的 Container 中了

    Bingo!!!!!🎈🎉🎉🎉

    三,结尾

    结合前两篇内容讲解的 Azure DevOps 系列,基本上从项目前期的持续集成,持续编译,到中期的代码静态扫描,再到后期的实现项目编译好的程序包自动发布到存储账号中,基本已经满足项目需求。DevOps 已从完美的升级为  DevSecOps 了。下一篇,对我我们目前的项目,我是如何实施DevOps的!!!尽请期待。

    Azure Blob 存储文档 ----- 访问控制:https://learn.microsoft.com/zh-cn/azure/storage/blobs/data-lake-storage-acl-cli

    作者:Allen 

    版权:转载请在文章明显位置注明作者及出处。如发现错误,欢迎批评指正。

  • 相关阅读:
    猪齿鱼实践之持续交付中的分支管理与版本控制
    CTFShow pwn07 (ret2libc-64bit
    快手发布Q2及半年度财报,哪些内容值得关注
    shiro设置url过滤配置详解
    nodejs安装和环境配置-Windows
    1、案例二:使用Pandas库进行进行机器学习建模步骤【Python人工智能】
    SQL优化这么重要,不懂怎么行?也许你需要一剂良药了
    【源码】数据可视化:基于 Echarts + Java SpringBoot 动态实时大屏范例 - 监管系统
    Python期末复习题:组合数据类型
    算法通过村第六关-树白银笔记|层次遍历
  • 原文地址:https://www.cnblogs.com/AllenMaster/p/17372029.html