Jenkins与持续交付的诸多问题

如果您使用软件,您可能已经意识到软件交付的实践在今天远非完美。查看我们上个月关于自世纪之交以来软件开发演变的文章,原因有些。在那篇文章中,我们解释了导致我们进入当今软件世界的道路,以及为什么这个世界可能达不到我们的期望。

这篇文章是我们关于进入詹金斯后世界的系列文章的第二篇。在这里,我们更详细地看一下流行的工具和流程,包括但不限于Jenkins,它们阻碍了我们从软件的必杀技。

我们喜欢詹金斯!

需要明确的是,我们并未将Jenkins视为当今软件交付领域的唯一问题。我们实际上认为詹金斯是一个很棒的工具。但是,Jenkins和其他持续集成(CI)服务器并不总是正确使用。软件交付团队倾向于在如何部署Jenkins和类似工具时犯错误。结果,他们采用低效的做法,削弱了他们获得或保持敏捷性的能力,并失去了采用最新技术创新所需的灵活性。

詹金斯的问题

最终,这些问题的根源不是来自特定工具,而是来自文化错误。

问题1:詹金斯插件太多了

插件不一定是坏事。实际上,当它们被正确使用时(这意味着将功能扩展到软件平台所需的核心功能之外),它们就是很好的资源。它们为用户提供了为他们使用的工具添加额外功能的选择,而不需要他们在不希望使用这些功能的情况下将资源专用于这些功能。

但对于Jenkins而言,插件不提供对可选功能的访问,这些功能超出了使用该平台所需的核心功能。相反,Jenkins要求团队使用插件来实现在许多情况下非常基本的任务。

例如,如果你想为Docker环境构建 – 这是一个非常常见的用例 – 你需要一个插件如果你想从GitHub(另一个非常常见的任务)拉,那么你需要一个插件如果您需要PAM支持,则需要一个插件。

可以肯定的是,Jenkins的1,500个插件中的许多都提供了并非每个人都需要的功能。它通过插件提供完美的意义,例如,PagerDuty或Azure存储兼容性,因为许多用户可能不需要这些功能。

但是你需要在Jenkins中插件来做任何事情都是有问题的 – 而且这不仅仅是因为它意味着软件交付团队必须花时间安装和配置它们才能开始工作。这里更大的问题是Jenkins的大多数插件都是由第三方编写的,质量各异,可能会在没有通知的情况下失去支持。

构建基于第三方插件的软件交付链并不是确保可用性或稳定性的好方法。

问题2:Jenkins不是为Docker时代而设计的

虽然CI服务器通常是现代DevOps会话的一部分(并且确实是DevOps工程师的许多重要工具之一),但它们实际上是一种相对古老的技术,可以追溯到2000年代中期 – 早在任何人想象容器之前和微服务作为软件部署的首选基础设施。

因此,传统的CI服务器无法帮助团队充分利用Docker容器等下一代基础架构。他们通过多个插件很笨拙地与Docker集成。实际上,Jenkins 在其名称中使用Docker的插件不少于14个许多用于特定供应商的Docker相关平台,但其中六个用于核心Docker平台。

从许多方面来说,Jenkins与大多数其他CI服务器一样,是在裸机服务器和虚拟机时代构建的。事实上它支持Docker支持。在越来越多的Docker本地环境中,这不是CI服务器运行的好方法。

问题3:Jenkins不能很好地支持微服务

就像Jenkins和大多数其他CI服务器诞生于Docker之前的时代一样,它们也在微服务变得流行之前出现。

当然,有些人在2000年代使用面向服务的架构(SOA),同时Jenkins首次使用。自20世纪80年代以来,微内核等概念就已存在。但是直到Docker出现并使微服务易于实现,实际上已经部署了很少的微服务平台。

所以你可能不会期望Jenkins能够很好地支持微服务 – 事实上,它并没有。Jenkins缺乏对同时集成和测试多个服务的支持。这是微服务环境的基本功能。

除非您计划投资多个管道的开销(每个微服务一个),Jenkins在帮助您开发下一代微服务应用程序方面做得很差。

问题4:CI!= CD

Jenkins和CI服务器的最大问题很可能是软件交付团队有时会将持续集成与持续交付(CD)混为一谈。

事实上,CI和CD是不同的东西。CI是CD流程的一部分,但要实现完整的CD – 这应该是任何旨在优化其工作流程的软件交付团队的目标 – 您需要的不仅仅是CI服务器。

CD还需要将自动释放自动化到您正在使用的环境中,无论是什么。它需要可以自动执行不属于CI服务器范围的软件交付任务的工具,例如步骤CD需要通信工具和渠道,以使软件交付团队能够无缝协作。

当组织设置CI服务器并立即考虑他们的软件交付现代化工作完成时,他们犯了一个大错误。

改变詹金斯世界的文化

为什么熟练的软件工程团队会犯这样的错误?这并不是因为他们没有智能或无法跟上最新的创新。

相反,问题在于错误的尝试模仿最大,最有效的软件交付操作,如谷歌和Netflix。这些组织着名地利用开源工具链和大型基础架构,构建令人难以置信的敏捷软件交付管道。

是什么使这些公司能够构建这些管道不仅仅是他们部署的工具,还有他们的文化。仅使用与Google相同的工具,您无法像Google一样高效。

较小的组织并不总是意识到这一点。只有当他们拥有正确的文化理念和流程时,他们才能克服像Jenkins这样的工具的局限性,并优化他们的软件交付管道。

没有工具链是完美的,但是当您实施正确的文化时,您可以实现完美的软件交付(或至少接近它)。

如果您的软件交付方法仍然只围绕Jenkins构建,那么您无疑会错失更好的机会。实现这些机会需要文化变革。在本系列的下一篇文章中,我们将研究具有前瞻性思维的公司如何将新工具与新的软件交付文化相结合,以超越我们长期努力解决的以Jenkins为中心的世界的低效率。

https://thenewstack.io/many-problems-jenkins-continuous-delivery/

打击警报疲劳:如何唤醒警报策略

如今,工程团队面临着保持系统平稳运行的必要性。这是因为企业与数字客户体验之间的界限正在缩小 – 当应用程序成为企业时,任何缺乏完美用户体验的东西都意味着要达到顶线。

在这种背景下,声音警报策略现在几乎对每个工程团队都至关重要。根据最近的一项调查,58%的DevOps专业人员报告依靠五个或更多可观察性工具来确定性能问题的根本原因,这意味着他们会针对每个问题对多个位置的数千个警报进行排序以找到答案。由于无法始终监控系统健康状况的各个方面,因此智能警报策略可以帮助团队更有效地运营,并将注意力集中在最需要的地方,从而保持业务平稳运行。

但设置警报并不总是像看起来那么简单。为了做到这一点,团队不仅要应对表面下方存在的庞大复杂性,还要对抗“警报疲劳”,或者在过于频繁时忽略通知的倾向。两种情况下的关键是在节奏和紧迫性之间取得适当的平衡。为了帮助您的团队建立更好的警报策略(并在晚上睡得更好),这里介绍我们如何应对Scalyr的挑战

警报结构

首先,关于结构的一个词。在最高级别,警报围绕三个关键支柱设计:指标(您要监控的绩效指标),比较报表(即“大于”,“小于”,“等于”)和阈值(关键值为您)想要比较指标)。

例如,要监视CPU使用率的意外峰值,可以设置以下警报:如果过去15分钟内的平均CPU使用率大于过去的24小时平均值,则触发警报。

阈值

创建警报时,通常可以通过建立阈值来启动。可以将三种类型应用于警报:固定,基于状态和历史。

固定阈值,顾名思义,当性能水平超过某个静态预定级别时触发警报。在测量具有硬限制的性能指标(如CPU使用率或硬盘空间)时,这些是设置和最佳工作的最简单阈值。

基于状态的阈值也简单明了。它们识别系统状态的变化 – 例如,“运行”或“停止” – 并且主要用于监视应用程序进程以发生意外停机。

历史门槛稍微复杂一些。也被称为“滑动窗口”,这些阈值将度量的当前值与其过去的值进行比较。换句话说,监视一个特定的时间段(例如15分钟的窗口),随着时钟滴答而继续移动。例如,基于历史阈值的警报可能显示为:如果15分钟的平均CPU使用率大于24小时前15分钟平均CPU使用率的120%,则触发警报。这里的想法是在滤除噪声的同时识别给定度量中的突然尖峰。

在此主题上,在设置警报时包含“宽限期”也很有用。换句话说,添加一个规则,防止警报被触发,除非它被触发持续一段时间。这有助于滤除小的像差并识别长期活动。

度量

一旦确定了阈值,就需要确定支持警报的指标。每种警报策略都需要涵盖五个关键指标类别:容量,带宽,状态,速率和事件参数指标。

容量指标监视具有固定和已知容量的系统组件,例如磁盘空间和可用内存。如果某些东西可以“填满”或“耗尽”,通常用容量指标来衡量。达到容量时,系统会中断,这意味着阈值应设置在最大容量以下。当击中容量的后果具有严重破坏性时,应将阈值设置得特别低。

带宽指标衡量系统内的流量。例如,网络利用率,CPU使用率和磁盘吞吐量。这种类型的系统活动本质上通常是高度可变的,因此请考虑将警报基于移动平均线。例如,您可以将其设置为测量30分钟窗口的平均使用量,而不是通过查看最新测量来监控网络使用情况。

状态度量标准具有用于监视系统状态更改的不同值,例如“正在运行”或“已停止”。这些系统状态度量标准通常与基于状态的阈值挂钩。

费率指标用于衡量某些事件发生的比率。换句话说,在特定时间段内发生的事件的数量。例如,“每秒请求数”,“每秒错误数”,“每分钟登录尝试数”等。对于可预测的指标,历史阈值最好。对于不太可预测的那些,将阈值基于历史高点或低点通常是一种合理的方法。

事件参数度量基于事件的某些可测量属性,例如响应时间或请求大小。该指标通常用于监控和报告某段时间内所有相关事件的平均值。您为事件参数指标设置的阈值与速率指标的阈值类似 – 使用可预测指标的历史阈值,以及不可预测指标的固定阈值。

通知

有了正确的警报阈值和指标,下一步就是构建一个系统,用于在出现问题时接收通知。这一步至关重要。您可以拥有世界上最好的警报参数,但如果警报没有到达您,它们将无法发挥作用。

现代DevOps环境提供了多种选择。例如,现在可以将警报存储在数据库中并通过电子邮件以每日批次,立即通过电子邮件发送,通过SMS或电话发送或其某种组合来发送。诀窍在于确定哪种交互模型最适合您的团队。

一般来说,紧急警报应该是设计中断的。他们需要立即引起你的注意并传达问题的紧迫性。出于这个原因,在相同的度量标准,不同的阈值和不同的通知方法上“堆叠”警报通常也是有意义的。这里的想法是随着问题变得更加紧迫而升级警报。

警报远远超出了眼睛。设置声音警报策略需要考虑三个关键支柱:阈值,指标和通知。随着应用程序正常运行时间成为每个企业的关键任务,现在花时间为您的应用程序环境和团队找出正确的组合可以发挥重要作用。

https://thenewstack.io/fight-alert-fatigue-how-to-wake-up-your-alerts-strategy/

理解CI和CD之间的区别

有关持续集成(CI)和持续交付(CD)的信息很多。多篇博文试图用技术术语解释这些方法的作用以及它们如何帮助您的组织。不幸的是,在某些情况下,这两种方法通常都与特定工具甚至供应商相关联。公司自助餐厅的一个非常常见的对话可能是:

  1. 您是否在团队中使用持续集成?
  2. 是的,当然,我们使用X工具

让我告诉你一个小秘密持续集成和交付都是开发方法。它们与特定工具或供应商无关。即使有工具和解决方案可以帮助你们(比如Codefresh),实际上,公司可以使用bash脚本和Perl单行来实践CI / CD(不是很实用,但肯定是可行的)。

因此,我们不会使用工具和技术术语来解释CI / CD的常见陷阱,而是使用最重要的内容来解释CI / CD:人们!

关于人的故事 – 软件集成的黑暗时代

认识爱丽丝,鲍勃,查理,大卫和伊丽莎白。它们都适用于SoftwareCo Inc.构建SuperBigProject应用程序。Alice,Bob和Charlie是开发人员。大卫是一名测试工程师。伊丽莎白是该团队的项目经理。

开发应用程序的传统方法如下:

Alice,Bob和Charlie都在他们的工作站上处理三种不同的功能。每个开发人员以单独的方式编写和测试代码。他们使用长期运行的功能分支,在合并到生产环境之前存在数周甚至数月。

在某个时间点,伊丽莎白(PM)收集了整个团队,并宣布:“人们,我们需要创建一个版本。请实现它!“

此时,Alice,Bob和Charlie正在争先恐后地将所有三个功能集成到同一个分支中。这是一个非常紧张的时间,因为这些功能以前从未一起测试过。由于错误的假设或环境问题,许多错误和问题突然出现(请记住,到目前为止,所有功能都只是在每个工作站上进行测试,彼此隔离)。

一旦这个高压力期结束,合并后的结果将传递给David,后者将执行额外的手动和自动测试。这段时间也很耗时,因为他可以批准或阻止发布,具体取决于发现了多少关键错误。所有的目光都落在大卫的身上,因为他的测试可以揭示可能会延迟释放的严重问题。

最后,测试结束了,伊丽莎白高兴地宣布该版本已准备好打包并运送给客户。

那么人们如何在这个虚构(但非常现实)的故事中感受到这种感觉?

  1. Alice,Bob和Charlie(开发)不满意,因为他们总是在即将发布的版本之前了解集成问题。整合期间感觉就像是同时出现多个问题的消防。
  2. 大卫(测试)不高兴,因为他的工作确实是不平衡的。在等待开发人员完成功能工作的平静时期。然后是测试阶段,当他被工作淹没,必须处理意外的测试场景,每个人都在看他的肩膀。
  3. 伊丽莎白(管理层)也不高兴。整合阶段是项目的关键路径。这是一个紧张的时期,因为任何意外的问题都会推迟产品的交付。伊丽莎白一直梦想着软件发布没有任何意外,但实际上这种情况从未发生过。估计项目时间表中的整合阶段始终是一个猜谜游戏。

团队中的每个人都不高兴。(顺便说一句,如果您的公司仍在开发这样的软件,请尝试了解此开发工作流程会损害您团队的士气。)

这里的主要问题是每个产品发布时发生单一 “集成”阶段。这是工作流程的痛点,它可以防止团队发布无压力版本。

将“连续”添加到集成

现在我们已经看到了“集成”的含义,很容易理解“持续集成”的含义。正如谚语所说,“ 如果事情是痛苦的,那就更经常地做。”持续整合本质上是以高频率重复整合步骤以减轻其痛苦。经常这样做的最明显的方法是在每个功能合并之后进行集成(而不是在宣布正式发布之前等待)。

当团队实施持续集成时……

  1. 所有功能都直接合并到主分支(主线)。
  2. 开发人员并非孤立地工作。所有功能都是从主线开发的。
  3. 如果主线是健康的,则认为功能已完成,而如果主线在其自身的单独工作站上工作则不会。
  4. 测试在功能级别和主线级别自动进行。

这就是持续集成的要点!当然,还有更多的细节(实际上有关于这个主题整本书)但主要的一点是,不是只有一个紧张的集成期,一切都在同时合并和测试,“整合”一直在发生以连续的方式。

持续集成是开发软件的更好方法(与“普通”集成相比),因为它:

  1. 减少合并功能时出现的意外数量。
  2. 解决“我机器上的工作”问题。
  3. 将测试时段切换为多个时段,其中每个要素逐渐合并到主线中(而不是一次性合并)。

结果是,使用CI工作的团队不是通过过山车生活(平静的开发时期,然后是压力释放),而是通过逐步的方式更好地了解项目的完成程度。

使用CI进行工作是现代软件开发的支柱之一。该技术已被很好地记录并且在此时已知。如果您今天没有在您的软件项目中练习CI,那么您的组织没有任何借口。

软件交付的黑暗时代

现在我们已经看到了“集成”的历史以及持续集成的工作原理,我们可以通过持续交付将其提升到新的水平。

如果我们回到原始故事,我们可以看到与发布方式类似的模式:

执行发布本质上是一个“大爆炸”事件。在认为软件被测试之后,有人负责打包和部署过程。将软件部署到生产也是一个非常紧张的时期,传统上涉及许多手动步骤(和检查表)。部署很少发生(有些公司每六个月部署到今天一次)。在极端情况下,部署发生在ONCE(瀑布式设计方法)。

仅在最终截止日期到来时提供软件会带来与不频繁集成相同的挑战:

  1. 通常发现生产环境与最后一分钟需要额外配置的测试环境不同。
  2. 在测试环境中正常工作的功能在生产中被破坏。
  3. 在发布时尚未准备好的功能根本不会提供给客户,或者他们甚至会进一步推迟发布日期。
  4. 发布会在开发人员(想要发布新功能)和操作(他们想要稳定性并且不希望一次部署太多新功能)之间产生紧张关系。

你应该能够在这里看到模式。如果我们通过更频繁地减轻“整合”阶段的痛苦,我们也可以为“交付”阶段做同样的事情。

将“连续”添加到交货

持续交付是指尽可能频繁地打包和准备软件(就像它被发送到生产中一样)的做法。最极端的交付方式是在每个功能合并之后。

因此,CD使CI更进了一步。将每个功能合并到主线分支后,不仅会对应用程序进行正确性测试,还会将其打包并部署到测试环境中(理想情况下与生产相匹配)。所有这些都以完全自动化的方式发生。请注意上图中缺少粘贴图(表示手动步骤)。

另请注意,每个新功能都是推动生产的潜在候选者。并非所有候选人实际上都被发送到生产。根据组织的不同,部署到生产的决策需要人为干预。人类只决定释放是否正在生产(但不准备释放本身)。该版本已在测试环境中打包,测试和部署。

持续交付比持续集成更难采用。这样做的原因是,由于每个候选版本都可能达到生产,因此整个生命周期需要自动化:

  1. 构建应该是可重复的和确定的。
  2. 所有发布步骤都应该是自动化的(这比听起来更难)。
  3. 所有配置和相关文件都应存在于源代码管理中(不仅仅是源代码)。
  4. 应在其自己的测试环境中测试每个功能/发行版(理想情况下以动态方式创建和销毁)。
  5. 所有测试套件都应该是自动化的并且相对较快(也比听起来更难)。

虽然云无疑可以满足所有这些要求,但软件团队(开发人员和运营人员)需要一定程度的纪律才能真正实现持续交付。

一旦CD到位,释放变得微不足道,因为只需按一下按钮即可执行。每个人(不仅仅是项目经理)都能看到当前的候选版本。当前版本候选版本可能没有所有请求的功能,或者它可能尚未满足所有要求,但就发布过程而言,这并不重要。重要的是,该版本经过全面测试和打包,随时可以发送到生产(如果需要)。任何项目利益相关者都应该能够开绿灯,并立即将产品发布到生产中。

如果您使用的是CD,则软件生命周期可以总结如下:

每个候选发布者总是提前准备好。人类决定是否也会将候选版本推向生产阶段。如果需要在将来召回,那么未达到生产的候选版本仍会存储为工件。

与持续集成一样,如果您想了解所有细节,还有一本关于持续交付的书籍

奖金:持续部署

CD中的“D”也可以表示部署。这种开发方法建立在持续交付的基础之上,基本上完全消除了所 任何被发现准备好(并通过所有质量和测试门)的候选版本都会立即投入生产。

不可否认,只有极少数公司能够像这样工作。在没有人的情况下直接投入生产不应该掉以轻心,在撰写本文时,许多公司甚至都没有实施持续交付,更不用说部署了。现在应该清楚的是,每种开发方法都需要先前的基础。

在升级之前,您的组织应确保每个基础都非常扎实。在Codefresh,我们看到许多公司试图通过试图在他们的CI / CD管道中窃取他们现有的做法(针对数据中心进行优化)而试图进入云时代,却没有真正理解其中一些做法现在已经过时了。尝试采用持续部署而不首先完全接受持续交付是一场失败的战斗。

查看这些方法涵盖的内容以及CD如何要求CI的另一种方法是下图:

确保以正确的顺序处理每个开发范例。定位持续交付是一个更加现实的目标,也是工具选择丰富的目标

https://thenewstack.io/understanding-the-difference-between-ci-and-cd/

DevOps所需的技能

除了我们最近的博客“ 如何成为一名优秀的DevOps工程师 ”之外,我们还看到一些DevOps领导者分享他们关于成为DevOps专家所需的关键技能的想法,我们在此列出。

了解质量保证流程:质量保证有助于计划和控制开发过程,以防止项目期间和任何中断时出现严重问题。DevOps有志者应该知道如何根据场景进行分析,影响,影响的位置。

有能力的通才系统管理员:需要了解软件的方式和行为,以便部署和解决问题,并且了解多种编程语言是一个额外的加分点,它有助于脚本或日常任务的自动化。

熟练的编程:应该知道如何开发大型,健壮的应用程序,如何编写高质量的代码,使用哪些工具,框架和库,如何有效地克服障碍。

了解SDLC:应该完全了解软件开发生命周期(SDLC)的工作原理,不同的模型,不同模型之间的差异,每个模型的优缺点等。

技术专长:应具备建立DevOps友好基础架构所需的意识和技术专长。

软技能:应该需要软技能来推动业务的广泛采用,从技术到管理的各个层面。

最新:应该是技术上所有新事物的最新版本。接触人工智能和机器学习等趋势是一个额外的优势,因为它们可能会在未来几年对DevOps的未来产生巨大影响。

找到具有上述技能的人是非常困难的。

DevOps更多的是关于我们工作的原则,而不是关于工具或工作角色的原则,这是团队的努力。DevOps是关于预先构建流程的,以便像变更控制这样的东西或多或少地自动化,这意味着工程师可以识别问题并以极快的方式推送修复。雇用聪明的人以正确的工作和学习态度总是好的,而不是按照他们以前做过的事情的清单。显然存在DevOps技能组短缺,但公司可以做的是,构建自己的原则和实践形式,并培训内部员工(系统管理员和软件人员)以相应地学习DevOps技能。

自动化(或其他)快速云部署,亚马逊每11秒发布一次新的软件

您的IT和DevOps团队今天的移动速度有多快?无论答案是什么,可能还不够快。这不仅仅是我的观点 – 全球接受调查的CIO中有近90%认为,无论他们现在发布新产品和服务更新的速度如何,他们都需要在不久的将来更快地将其推出

这引发了全新的担忧:是否已经推出了新的功能和新功能,以至于IT尚未准备好提出有问题的,错误发布的前景?这些CIO中有四分之三的人似乎也这么认为!

当像亚马逊这样的公司每11秒发布一次新的软件更新时,难怪企业会感受到持续的压力,要求他们踩到天然气并将其保留在那里。但要紧跟这种创新速度更快的压力,并以不损害用户体验的方式这样做,需要进行一些内部创新 – 即通过建立持续创新和持续交付的渠道。

持续的管道使IT和DevOps能够更少地关注日常故障排除,更多地关注大图创新。但是,如果不首先投资自动化,你就无法获得这条管道。

自动化性能反馈

为了使企业能够可靠地为其用户群提供持续创新,而不会让客户体验处于风险之中,他们需要实施一种自动化的,以反馈为中心的文化。这需要通过内部和外部来实现。

例如,当开发人员团队正在开发新功能或服务更新时,需要在公司内部和外部对其进行严格测试。这可以通过A / B测试和早期访问beta周期等手段的组合来实现,以征求早期反馈并将其纳入开发周期。通过在开发早期自动建立对新功能的反馈,您可以将可能不会出现的潜在问题扼杀到过程的后期 – 或者因为反馈迟到而导致整体交付延迟(让您落后一步)您的竞争对手的速度有多快?或者因为这些问题根本没有被发现,您的团队最终会推出一个错误的发布版本。通过在整个技术堆栈中自动执行性能和依赖性分析,

构建一个可靠,一致和自动化的基于事实的反馈循环过程,在发布之前彻底测试新的创新,然后利用额外的反馈,以便将来证明更多的版本,有助于创建一个自给自足的持续创新和交付给您的最终用户。

通过信任建立反馈循环

但要达到这一点,完全需要其他东西:信任。希望创建持续交付模型的IT和DevOps团队需要首先在其组织中培养信任文化。这可能是企业在尝试建立连续管道时面临的最大挑战。

信任是双向的。IT团队需要知道他们可以依赖于每个可以按时,按时,按照用户期望和竞争对手设定的标准交付的高质量,具有发布价值的构建。与此同时,在这些团队中工作的人员也需要接受事情失败,特别是在CI / CD模型的初始阶段。而且,我们如何应对这些失败和错误至关重要 – 不是惩罚,而是利用它们作为学习经验,继续进一步改进并确保通过自动补救的交付过程 – 排除这些类型的失败从再次发生。

持续集成和交付不仅仅是软件挑战; 他们也是文化挑战。企业 – 无论是在IT还是整个企业 – 都需要敏锐地意识到他们在创建一个培养开发人员信任的环境中的责任,创建强大的自动化反馈循环,从而产生强大,高质量的功能和创新。

可以保持连续的连续管道

提供更好的软件 – 最终用户所需的各种版本和体验以及竞争对手所提供的 – 需要扩展DevOps以便以云的速度移动。这需要自动化。

自动化的持续交付管道使开发人员能够发布新的创新,通过基于事实的反馈循环周期进行测试,不仅速度更快,更一致,而且可以确保性能问题早期得到解决和修复。转变为连续的管道模型是允许创新以当今企业云环境所需的速度发生的,并确保开发人员能够在流程早期识别和修复潜在问题,以便推出新产品或功能正在满足您和您的用户 – 高标准。

在一天结束时,实际上没有办法解决这个问题:如果企业希望能够满足客户的期望,他们的DevOps团队需要投资建立自动化的连续管道。基于反馈回路基础的连续创新模型,能够自动修复性能问题,并以持续交付的节奏交付,是企业以云速度移动的最佳工具。

容器正在实现安全性和监控功能的融合

当我大约五年前看到集装箱的出现,有一点是明确的:如果-这是一个很大的,如果那时-如果容器成为一个事情,他们会改变企业如何将生产经营他们的应用程序。

快进到今天,这个观察并不是惊天动地。容器的早期采用者已经发现了这种情况(有时很难)。更有趣的是容器和微服务架构从根本上改变了运营方式。我甚至可以说容器正在实现安全性和监控功能的融合,从而加速向DevSecOps的迁移。

但让我们退后一步。

组织正在转向容器,以简化开发并加快创新步伐。2017年Forrester的一项研究发现,在接受调查的组织中,66%的公司实现了加速的开发人员效率,而75%的公司实现了应用程序部署速度的中等至显着增长。

话虽如此,容器对企业来说相对较新。在2018年6月的DockerCon旧金山活动中,Docker指出,在接受调查的参与者中,有50%的人在去年开始使用容器,这表明大多数IT专业人员和DevOps人群仍在学习。当这些新手用容器生产时,我怀疑他们的预生产计划将包括重新考虑监控和安全流程。

我们来讨论一下原因。

容器更易于创建和快速旋转,因为它们通常比虚拟机更小,重量更轻。

95%的容器不到一周就能存活,11%的容器可以存活不到10秒。

但是,创建它们的难易程度,通过持续开发/持续集成(CI / CD)管道快速启动容器的能力,以及使用编排工具来扩展和移动它们意味着容器会被淘汰,经常重生。事实上,去年的一项研究发现,95%的容器不到一周就能存活,11%的容器可以存活不到10秒。这对开发人员来说非常棒 – 更频繁地推动代码,更快地创新,并在竞争中保持领先地位。一切都好,对吗?

没那么快。可以想象,这使跟踪小虫子的工作变得复杂。虽然容器(如果使用得当)可以改善您的安全状况,它们的绝对数量,分布以及容器的黑盒性质会迫使您重新考虑风险和合规性配置文件。将容器设置为机器或虚拟机是不明智的:由于开销,您无法在每个容器中放置代理,并且使用代码注入技术类似于在每个容器中注入病毒。这两种方法都违反了容器的软件设计原则。

在过去,您可以采用以网络为中心的方法,观察进出机器或虚拟机的所有内容,以获得正在发生的事情的“真相”。但考虑到容器的动态特性以及容器跨云移动的能力,旧的以网络为中心的方法不像以前那样工作,既不用于安全也不用于监控。

但什么可以取代网络作为真相的来源?就像容器本身是从嵌入在操作系统中的功能创建的一样,事实证明,监视和保护容器的最佳方法是利用底层系统中的一些原语。

操作系统内核可以是这样的事实:内核从不关于系统上运行的内容或这些应用程序正在做什么。这使您可以查看主机上运行的每个容器内部,让您查看所有应用程序,网络,文件和系统级活动。

因此,当然,除了您可能想要跟踪的通常混合的监控细节之外,如果您有这种类型的仪器,您还可以观察异常的安全行为并观察入侵。容器的性质简单地导致监视和安全功能的自然集成。

当然,你不必这样做,但它变得如此容易,以至于大多数集装箱商店最终会到达那里。

另一方面,全面使用微服务架构的组织别无选择,只能实现这一飞跃。

这就是原因。

微服务架构和支持平台更加复杂,因为它们隔离了功能以增加组件的分离并加速开发。开发人员和服务团队可以更自由地更快,更频繁地启动功能。并且,功能越孤立,通过将微服务组件拼接在一起就可以创建更多的排列。

然而,最终结果是运动部件数量的大量增加,以及这些应用的攻击面的巨大增加。

这是攻击者的梦想成真,也是安全专业人员的噩梦。这就是为什么微服务商店发现必须将监控和安全任务集成到他们的平台中,如果他们还没有这样做的话。

这也是DevSecOps运动如此迅速地获得蒸汽的原因。好消息是,容器环境提供了在开发周期的多个点构建自动安全扫描的机会,这应该意味着容器最终在安全意义上比甚至虚拟机更加强大。

一组强大的开源安全构建块似乎有助于解决这些容器安全问题。Anchore这样的工具解决了扫描和已知漏洞的问题; Falco解决了运行时安全违规和活动审计,并且Inspect解决了取证和事件响应问题。容器安全产品就在那里,而Sysdig等一些产品提供统一的安全性,监控,取证和故障排除,为快速发展的容器环境提供单点控制。

这简化了部署并简化了容器的管理,使组织能够从风险,安全性和合规性角度更快地移动并提高他们提供的服务质量。

根据Gartner的说法

“在应用层,不需要两个单独的工具(一个用于安全,一个用于操作)执行服务的详细监控。至少,数据将在各个团队之间共享,但理想情况下,应用程序性能监视和安全监视将合并到支持单个DevSecOps团队的应用程序监视和性能中。

容器的引入颠覆了许多惯例,并要求IT组织重新思考一切。虽然所有采用容器的组织似乎最终都会在这些环境中集成监控和安全功能,但采用微服务架构的商店别无选择,只能走今天的道路。

您应该学习微服务的十大理由

学习微服务的十大理由

始终关注新技术,语言和框架,以彻底改变您的组织。如果你仍然在你的立方体中粘贴你的整体框架中的代码,那么你可能生活在过去,你有一个小应用程序和很少的员工来处理它。现在情况发生了变化!你需要采取领先一步,并与革命性的技术在那里走路  微服务  是领导人之一。 

想知道微服务在2018年的最热门技术中的地位吗?了解Edureka的技能报告 !!

您是否正在寻找最佳理由来投入时间学习微服务以期成为架构师并使用它们来开发应用程序? 

以下是我学习微服务的十大理由:

  1. 高薪工作
  2. 使用最少的资源,降低拥有成本
  3. 促进最佳大数据实践
  4. 降低风险
  5. 提供粒度缩放
  6. 提供高质量的代码
  7. 提供跨团队协调
  8. 灵活地使用各种工具来完成所需的任务
  9. 提供持续交付
  10. 易于构建和维护应用程序

学习微服务的十大理由| Edureka

现在,让我帮助您更详细地了解这些内容。

10.易于构建和维护应用程序

当开发人员构建的产品变得稳定并且在市场上供客户使用时,开发人员团队主要分为以下活动。

  • 实现新功能
  • 修复错误
  • 更改现有功能

在这种情况下,如果产品基于单一框架,则代码库的每个更改都必须通过构建,维护和部署的所有阶段。

所以在这种情况下,微服务就像一个救世主!

易于构建和维护 - 学习微服务的十大理由 - Edureka

微服务解决了基于组织的问题,使调试和测试应用程序变得容易。在此框架的帮助下,持续交付,测试过程和提供无差错应用程序的能力大大提高。

9.提供持续交付

与专用团队为每个离散功能(如处理数据库,维护服务器端逻辑)工作的单片应用程序不同,微服务使用持续交付模型来处理应用程序的整个生命周期。

开发人员,操作人员,测试团队同时在单个服务上执行诸如构建,测试和调试之类的活动。

持续交付 - 学习微服务的十大理由 - Edureka

这种开发方法使代码能够不断开发,测试和部署。

因此,每次进行更改时都不必重新编写代码,只需从现有库中使用它即可!

8.灵活地使用各种工具完成所需任务

微服务架构鼓励使用最合适的技术来满足服务的特定需求。每项服务都可以自由使用自己的语言,框架或辅助服务。即使使用这种不同的框架,服务仍然可以与应用程序中的其他服务轻松通信。

混合技术 - 学习微服务的十大理由 - Edureka

7.提供跨团队协调

跨团队协调 - 学习微服务的十大理由 - Edureka

传统的面向服务的体系结构(SOA)涉及重量级的进程间通信协议。

但是,微服务,遵循分散化和解耦服务的概念,以便它们作为独立的实体。因此,在微服务架构中,每个团队处理各种实体,然后相互通信以处理不同的功能。

6.提供高质量的代码

遵循微服务的体系结构,完整的框架被模块化为离散组件。这有助于应用程序开发团队一次专注于一项特定的工作。因此,这反过来简化了整个编码和测试过程。

良好的质量准则 - 学习微服务的十大理由 - Edureka

5.提供粒度缩放

如果你谈论可扩展性,那么微服务就会胜过许多其他架构选择。

由于每个服务都是框架中的单独组件,因此您无需扩展整个应用程序即可扩展单个功能或服务。可以在多个服务器上部署关键业务服务,以提高可用性和性能,而不会影响其他服务的性能。

粒度缩放 - 学习微服务的十大理由 - Edureka

因此,微服务可以轻松识别扩展瓶颈,然后在每个微服务级别解决这些瓶颈。

4.降低风险

每个服务都是微服务框架中的一个独立实体,这允许本地化更改,更高的质量信任度和端到端回归方案。

降低风险 - 学习微服务的十大理由 - Edureka

因此,即使应用程序的一个服务或组件出现故障,整个应用程序也不会停止运行。相反,只有特定的服务或组件需要由开发人员重建。 

因此,这可以降低业务应用程序完全崩溃的风险!

3.促进大数据实践

微服务拥有其私有数据库来收集,摄取,处理和交付数据以实现其各自的业务功能。

大数据源 - Edureka因此,您可以说微服务与数据管道架构协作,以协调大数据收集,提取,处理和交付的方式,以微服务的形式处理小任务。

2.使用最少的资源,降低拥有成本

多个团队致力于独立服务,以便轻松部署。这种提高的微服务效率降低了基础架构成本,最大限度地减少了停机时间,优化了资源并使代码可重用。因此,在这些服务的帮助下,您不必在大型机器上运行,但基本机器将为您服务。

通过降低TCO提高投资回报率 - 学习微服务的十大理由 - Edureka

1.高薪工作

据Indeed.com称,“微服务”的平均工资范围从软件工程师每年约97,994美元到高级软件工程师每年116,027美元不等。 不仅在个人层面,而且许多超级增长公司,如Netflix,eBay,PayPal,Twitter,亚马逊在其结构中使用微服务。

我希望我的博客“学习微服务的十大理由”对你来说很重要。 

虽然它仍然处于起步阶段,如果您对这种架构很感兴趣,并且想要进行结构化学习,那么请查看我们的微服务  架构培训  ,该培训包括讲师指导的现场培训和现实生活项目经验。此培训将帮助您深入了解微服务,帮助您掌握主题。

微服务架构 – 学习,构建和部署微服务

微服务架构:

从我之前的博客中,您必须对微服务架构有基本的了解。 但是,作为一名拥有微服务认证专业知识的专业人士,需要的不仅仅是基础知识。 在本博客中,您将深入了解架构概念并使用UBER案例研究来实现它们。

在本博客中,您将了解以下内容:

  • 微服务架构的定义
  • 微服务架构的关键概念
  • 微服务架构的优缺点
  • UBER – 案例研究

您可以参考  什么是微服务,以了解微服务的基本原理和优点。

如果我给你微服务的定义,那将是公平的。

微服务的定义

因此,没有适当定义微服务又称微服务架构,但可以说它是一个由执行不同操作的小型,可单独部署的服务组成的框架。

微服务专注于单个业务域,可以作为完全独立的可部署服务实现,并在不同的技术堆栈上实现它们。

单片架构和微服务之间的差异 - 微服务架构 - Edureka

图1:   单片和微服务架构之间的差异 – 微服务架构

请参阅上图以了解单片和微服务架构之间的区别。为了更好地理解两种架构之间的差异,您可以参考我之前的博客  What Is Microservices

为了让您更好地理解,让我告诉您微服务架构的一些关键概念。

微服务架构的关键概念

在使用微服务开始构建自己的应用程序之前,您需要清楚应用程序的范围和功能。

以下是在讨论微服务时应遵循的一些指导原则。

设计微服务时的指南

  • 作为开发人员,当您决定构建一个单独的域应用程序并明确其功能时。
  • 您设计的每个微服务应仅集中于应用程序的一项服务。
  • 确保您已设计应用程序,使每个服务都可单独部署。
  • 确保微服务之间的通信是通过无状态服务器完成的。
  • 每个服务都可以进一步重构为更小的服务,拥有自己的微服务。

现在,您在设计微服务时已经阅读了基本指南,让我们了解微服务的架构。 

微服务架构如何工作?

典型的微服务架构(MSA)应包含以下组件:

  1. 客户端
  2. 身份提供者
  3. API网关
  4. 消息格式
  5. 数据库
  6. 静态内容
  7.  管理
  8. 服务发现

请参考下图。

微服务架构 - 微服务建筑学 - Edureka

图2:微服务 架构 – 微服务架构

我知道架构看起来有点复杂,但让 为你简化一下。

1.客户

该体系结构从不同类型的客户端开始,从尝试执行各种管理功能的不同设备(如搜索,构建,配置等)开始。

2.身份提供者

然后,来自客户端的这些请求在身份提供者上传递,身份提供者验证客户端的请求并将请求传递给API网关。然后通过定义良好的API网关将请求传递给内部服务。

3. API网关

由于客户端不直接调用服务,因此API网关充当客户端将请求转发到适当微服务的入口点。

使用API网关的优点包括:

  • 所有服务都可以在客户不知情的情况下进行更新。
  • 服务还可以使用非Web友好的消息传递协议。
  • API网关可以执行交叉功能,例如提供安全性,负载平衡等。

在接收到客户端的请求之后,内部体系结构由微服务组成,这些微服务通过消息相互通信以处理客户端请求。

4.消息格式

他们通过两种类型的消息进行通信:

  • 同步消息:  在客户端等待服务响应的情况下,微服务通常倾向于使用REST(Representational State Transfer),因为它依赖于无状态,客户端服务器和HTTP协议使用该协议,因为它是分布式环境,每个功能都用资源来表示以执行操作
  • 异步消息:在客户端不等待服务响应的情况下,微服务通常倾向于使用AMQP,STOMP,MQTT等协议这些协议用于此类通信,因为定义了消息的性质,并且这些消息必须在实现之间可互操作。

您可能会想到的下一个问题是使用微服务的应用程序如何处理他们的数据?

微服务架构培训

5.数据处理

好吧,每个微服务都拥有一个私有数据库来捕获他们的数据并实现相应的业务功能。此外,微服务的数据库仅通过其服务API进行更新。请参考下图:

每个微服务中的数据库表示 - 微服务架构 - Edureka494-02图3:   处理数据的微服务的表示 – 微服务架构

微服务提供的服务被转发到任何支持不同技术堆栈的进程间通信的远程服务。

6.静态内容

在微服务自身通信之后,他们将静态内容部署到基于云的存储服务,该服务可以通过内容交付网络(CDN)将它们直接传递给客户端  

除了上述组件外,还有一些其他组件出现在典型的微服务架构中:

7.管理

该组件负责平衡节点上的服务和识别故障。

8.服务发现

充当微服务的指南,以查找它们之间的通信路由,因为它维护节点所在的服务列表。

订阅我们的YouTube频道以获取新的更新..!

现在,让我们来看看这个架构的优缺点,以便更好地理解何时使用这个架构。

微服务架构的优缺点

请参阅下表。

 

微服务架构的优点 微服务架构的缺点
自由使用不同的技术 增加故障排除挑战
每个微服务都侧重于单一业务能力 由于远程呼叫而增加延迟
支持单个可部署单元 增加了配置和其他操作的工作量
允许频繁的软件发布 难以保持交易安全
确保每项服务的安全性 艰难地跟踪各种服务边界的数据
并行开发和部署多个服务 很难在服务之间移动代码

通过比较UBER以前的架构和现在的架构,让我们更多地了解微服务。

优步案例研究

UBER的先前架构

像许多创业公司一样,UBER开始了它的旅程,采用单一的架构,为单个城市的单一产品而建。当时似乎已经清理了一个代码库,并解决了UBER的核心业务问题。然而,随着UBER开始在全球范围内扩展,他们在可扩展性和持续集成方面严格面临各种问题。

UBER整体建筑学 - 微服务建筑学 - Edureka

  图4:   UBER的整体架构 – 微服务架构

上图描绘了UBER以前的架构。

  • 存在REST API,乘客和驾驶员连接。
  • 三个不同的适配器与其中的API一起使用,以执行诸如计费,付款,发送我们预订出租车时看到的电子邮件/消息等操作。
  • 用于存储所有数据的MySQL数据库。

因此,如果你注意到这里所有的功能,如乘客管理,计费,通知功能,支付,旅行管理和驾驶员管理都是在一个框架内组成的。

问题陈述

当UBER开始在全球范围内扩展时,这种框架引入了各种挑战。以下是一些突出的挑战

  • 必须一次又一次地重新构建,部署和测试所有功能以更新单个功能。
  • 修复错误在单个存储库中变得非常困难,因为开发人员不得不一次又一次地更改代码。
  • 通过在全球范围内引入新功能来同时扩展功能非常难以一起处理。

为了避免这些问题,UBER决定改变其架构,并关注其他超级增长型公司,如亚马逊,Netflix,Twitter和其他许多公司。因此,UBER决定将其单片架构分解为多个代码库,以形成微服务架构。

请参考下图查看UBER的微服务架构。

UBER微服务架构 - 微服务架构 - Edureka

图5:   UBER的微服务架构 – 微服务架构

  • 我们在这里观察到的主要变化是引入了所有驾驶员和乘客所连接的API网关。从API网关,所有内部点都连接起来,例如乘客管理,驾驶员管理,旅行管理等。
  • 这些单元是单独的可部署单元,执行单独的功能。

    • 例如:如果要更改计费微服务中的任何内容,则只需部署计费微服务,而不必部署其他微服务。
  • 所有功能现在都是单独缩放的,即每个功能之间的相互依赖性已被删除。

    • 例如,我们都知道搜索出租车的人数比实际预订出租车和付款的人数要多得多。这使我们得出一个推论,即在客运管理微服务上工作的流程数量超过了支付工作流程的数量。

通过这种方式,UBER将架构从单片机转移到微服务中获益

https://www.edureka.co/blog/microservice-architecture/

监控您无法忽视的指标

随着DevOps运动的兴起,人们开始关注Web应用程序监控工具。这是一件好事。监控Web应用程序(特别是在生产环境中)通常是事后的想法 – 通常在发生一些事件后才会实施。到那个时候,价值已经失去 – 无论是崩溃,性能不佳还是安全漏洞。

拥有强大的监控策略可收集有关Web应用程序运行状况的信息。在解决您的应用程序问题时,将硬信息用作指南会产生奇迹。然而,可能有太多好事。信息太多会导致信息疲劳,这与没有足够的信息一样糟糕。如果您的应用程序中显示的信息太多,那么它最终可能会被调整掉。发生这种情况时,就像没有监控一样。

在本文中,我将讨论一些需要考虑进行监控的最重要指标。此外,我们将介绍用于无缝提供信息的信息呈现方法。让我们开始吧。

选择最重要的指标

如上所述,任何无法采取行动的信息都是您需要消耗的精神体重。充其量,你只会忽略这些信息,最糟糕的是,它会将你的监控变成一个混乱的混乱,并没有提供太多的价值。一个很好的起点是过滤掉信息以显示关键指标,这是否意味着减少信息或建立监控策略。

让我们考虑一些关键指标:

错误处理

有几种方法可以处理应用程序中的监视错误:

  • 使用Raygun的崩溃报告 等工具可以轻松地显示Web应用程序中发生的任何错误。该工具允许使用交钥匙解决方案来确定应用程序中发生的错误,包括频率和确定优先级;
  • 为适当的环境使用内置度量报告。例如,如果您使用Microsoft Azure进行托管,则可以设置指标,以通过电子邮件向您发送有关服务器上可能出现的任何类型的5xx错误的信息。
  • 在您的应用程序中构建错误处理 这通常是最经济和最简单的方法,但很容易失控(同时,确保您的错误处理不会产生自己的错误)。

应用程序性能监控:内部工作

接下来,应用程序性能监视(APM)是应用程序的关键指标。APM工具提供了一种监视应用程序内部工作方式的方法。最有用的功能是确定应用程序中发生的任何瓶颈。应用程序性能管理包含两组主要指标:

  1. 应用程序最终用户所体验的性能。这包括加载时间,请求量等等;
  2. 用于应用程序的计算资源。这允许确定应用程序中的任何硬件瓶颈。

例如,假设性能正在成为您的应用程序的问题,并且用户开始经历缓慢。这些问题可能变得非常模糊,难以发现。与应用程序中发生的错误不同,性能问题更多的是滑动规模。也许它只是慢,因为互联网连接很差?也许用户只会责备自己?由于性能不是绝对的,因此用户的阈值可能会有所不同。

就像错误处理一样,有几种方法可以处理应用程序性能管理:

  • Raygun的APM As APM 这样的开箱即用的工具可以是一项非常大的工作,这是一种简单的方法,可以立即从监控中获得大量价值,而无需太多工作。
  • 手动将性能记录添加到应用程序中。这包括为查询语句添加调试语句,计算时间等。

到目前为止,我们已经指出了两个用于您的应用程序的关键指标。这有助于减少信息疲劳并仅查看最重要的信息,从而使您的Web应用程序保持完美状态。下一步是查看该信息,演示文稿可以在评估Web应用程序的状态时发挥重要作用。

演示:有效地消化信息

与指标一样重要的是,管理监控功能的另一个关键方面是接收信息。理想的交付方法是不需要大量工作来收集所需信息的方法。我有两种方式来考虑这个问题:

  1. 尽快向我提供重要信息。应用程序发生故障或严重错误之类的内容符合此条件;
  2. 获得所有应用程序状态的高级视图。我应该能够快速看到这个并获得应用程序的工作状态,如果需要,可以深入挖掘。

让我们来看看以下每一个:

#1:关键信息警报

正确消化监控信息的第一个方面是收到紧急情况的警报。与涉及优先权的所有事项一样,区分紧急问题和非紧急问题也很重要。信息过载在这里成为一种风险 – 如果您开始收到数百封有关系统错误的电子邮件,那么下一个合乎逻辑的步骤就是过滤掉这些电子邮件。这使你回到以前的状态,没有良好的监控。

有一种简单的方法可以实现有效的警报:

  • 需要立即关注的关键问题是什么?停机时间,安全问题或性能下降超过SLA可以成为优秀候选人;
  • 警报的最佳方式是什么?如果您的团队正在使用Slack,获取Slack通知可能是立即与您联系的最佳方式。也许短信息?电子邮件也是一种选择,尽管将这些警报与其他电子邮件混乱区分开来可能很困难。

重新审视前面提到的Raygun产品,有一系列集成可以使警报方法易于实现。无论您认为哪种方法最适合接收警报,Raygun都应该能够覆盖它。

#2:仪表板

最后,让我们看一下在管理监控功能时消化数据的最后一个方面。仪表板提供了在任何给定时间查看应用程序状态的视觉效果。

让我们来看看Raygun为其Crash Reporting应用程序提供的仪表板:

快速浏览一下,我可以看到如下数据:

  • 当前在应用程序上的实时用户数;
  • 平均加载时间;
  • 最近崩溃的数量。

所有这些都以易于呈现的方式提供了关于应用程序性能的硬数据。如果由于开发工作而提高性能,您将能够以有意义的方式呈现它。

纠缠您的监控能力

现在您已阅读本指南,您应该配备监控的关键信息和接收所述信息的最佳方式。您是否淹没了无法弄清楚如何有效使用的指标?考虑过滤掉您的指标,只使用上面探讨的指标,看看它是否有帮助。

https://thenewstack.io/monitoring-metrics-you-cant-afford-to-ignore/

无线技术比较 蓝牙,WiFi,BLE,Zigbee,Z-Wave,6LoWPAN,NFC,WiFi Direct,GSM,LTE,LoRa,NB-IoT和LTE-M

确定新产品应使用何种类型的无线技术可能是一项艰巨的任务。目前不仅有大量的无线技术可用,而且它也是一个不断推出新技术的移动目标。

为了简化为您的产品选择最佳无线技术的过程,我已根据功能,数据速度和操作范围将各种无线技术组织成一个组。

本文最初发布于PredictableDesigns.com。下载他们的免费备忘单15步骤开发您的新电子硬件产品

根据产品的预期功能,您可以相对简单地立即确定需要考虑的技术组。

例如,如果您需要两个相隔30英尺的设备来传输少量数据,那么使用任何长距离或高速无线技术都没有意义。

话虽如此,我建议您阅读整篇文章,无论您的产品具体需求如何,因为您可以大致了解所有可用的无线技术。

注意:这是一篇冗长,非常详细的文章,所以这里有一个免费的PDF版本,便于阅读和将来参考。您还将获得一个比较各种无线技术的Excel电子表格。

点对点技术

点对点简单地表示两个设备连接在一起以进行直接通信。通常只有两个设备可以参与对等连接。

在下一节中,我将讨论所谓的网状网络技术,它们允许许多设备互相连接。

蓝牙经典

最着名的点对点无线技术是蓝牙将手机连接到蓝牙扬声器时,蓝牙扬声器是手机和扬声器之间的点对点无线连接。

蓝牙主导着点对点流媒体音频应用,例如这款蓝牙耳机。

由于相对较短的工作范围,蓝牙功耗相当低。它比WiFi消耗更少的功率,比蜂窝技术少得多,但仍远远超过蓝牙低功耗或Zigbee等技术。

WiFi Direct

每个人都知道WiFi,但很少有人听说过WiFi Direct即使几乎所有手机和平板电脑都支持它,情况也是如此。与蓝牙一样,但与传统WiFi不同,WiFi Direct是一种点对点无线技术。

您可能已经知道,传统的WiFi设置了一个允许许多设备连接到它的接入点。但是,如果您想在没有接入点开销的情况下将数据直接从一个设备传输到另一个设备,该怎么办?这就是WiFi Direct发挥作用的地方。

WiFi Direct使用与传统WiFi相同的基本技术。它使用相同的频率并提供类似的带宽和速度。但是,它不需要接入点,允许两个设备具有类似于蓝牙的直接连接。

WiFi Direct相对于蓝牙的优势主要是传输速度更快。事实上,WiFi Direct比蓝牙快一百倍。虽然这个速度是有代价的,但价格主要是更高的功耗。

近场通信

近场通信(NFC)与本文中讨论的其他无线技术根本不同。NFC使用在两个线圈之间共享的电磁场进行通信,而所有其他无线技术发射无线电波。

由于NFC通过两个电磁耦合在一起的线圈进行通信,因此工作范围仅为一英寸或两英寸。两个耦合线圈基本上形成具有空气芯的变压器。

NFC最常见的用途是非接触式支付系统。虽然支付数据当然是加密的,但NFC的极短操作范围也有助于消除附近其他人破解交易的可能性。

NFC允许使用无源NFC标签。在这种情况下,被动意味着没有电源。相反,无源标签由NFC读取器设备的电磁场供电。通信和功率传输都发生在两个耦合线圈之间。

无源标签的优点是它们简单,便宜,小巧,并且几乎无限期,因为没有电池。还提供有源标签,其中包括电池。

作为旁注,无线充电,通过将设备放置在充电垫上为设备充电,也可以利用两个耦合线圈之间的相同功率传输现象。

低功耗/短程/低数据网格技术

创建低功耗,低数据网络有四种常用技术:蓝牙低功耗,Zigbee,Z-Wave和6LoWPAN。

如果您的产品是电池供电的,并且需要在短距离内发送相对较少的数据,那么这四种技术中的一种可能是最佳解决方案。

所有这四种技术支持的关键特性称为网状网络,有时也称为多对多网络

网状网络允许多对多通信。

通常,要将数据从设备A发送到设备C,您必须在设备A和设备C之间形成直接链接。对于蓝牙和WiFi Direct等对等技术就是这种情况。

但是通过网状网络,您可以通过设备B将数据从设备A发送到设备C.数据从设备A发送到设备B,设备B然后将数据中继到设备C.这允许您创建庞大的互连设备网络可以覆盖功率极低的大面积区域。

例如,假设您有26个标记为A到Z的设备,这些设备在每个设备之间以一百英尺的距离间隔开。通常情况下,如果您想将数据从设备A一直发送到距离2500英尺远的设备Z,您需要一台功率相当大的发射机。这需要具有大电池的产品。

但是使用网状网络,您可以将数据从设备A中继到设备B,再到设备C等,直到设备Z.没有一台设备必须传输超过一百英尺的数据,因此需要的功率由每个设备都小得多。

网状网络可以打开很多非常有趣的应用程序。

蓝牙低功耗(BLE)

蓝牙低功耗不仅仅是蓝牙经典的低能耗版本。事实上,它的应用程序与普通蓝牙完全不同。

蓝牙LE可能是我帮助开发的产品最常见的无线功能类型。它设计用于在相当不频繁的基础上传输/接收少量数据,同时消耗极低的功率。

BLE有许多应用,但最常见的一种是传输传感器数据。每分钟测量一次温度的传感器设备,或者每10分钟记录并传输其位置的GPS设备就是一些例子。

在许多情况下,蓝牙LE产品仅使用小型纽扣电池供电。如果数据不经常发送,则从纽扣电池运行的BLE设备可能具有一年或更长的电池寿命。

手机和平板电脑广泛支持蓝牙LE,使其成为将产品连接到移动应用的理想解决方案。它还支持高达1Mbps的下降传输速度(经典蓝牙可以达到2-3 Mbps)。

与本节中讨论的所有技术一样,BLE支持网状网络。实际上,它允许最多32,767个设备的网状网络!

除非您有充分的理由选择我在本节中讨论的其他技术(Zigbee,Z-Wave和6LoWPAN),否则我强烈建议您使用蓝牙LE。它是最简单的无线技术,功耗极低,是最受支持的技术。

BLE,Zigbee,Z-Wave和6LoWPAN都是智能家居应用的潜在解决方案。

Zigbee的

Zigbee是另一种短距离网络技术,在许多方面类似于具有类似应用的蓝牙LE。它使用相同的2.4 GHz载波频率,功耗极低,在相似范围内运行,并提供网状网络。

实际上,Zigbee网状网络可以包含多达65,000个设备,这是蓝牙LE可以支持的两倍。但是,我还没有看到推动任何限制的应用程序。

Zigbee主要用于家庭自动化应用,如智能照明,智能恒温器和家庭能源监控。它还常用于工业自动化,智能仪表和安全系统。

Z-波

Z-Wave是一种专有无线技术(由Silicon Labs于2018年收购),主要与家庭自动化市场中的Zigbee和BLE竞争。

与使用流行的2.4 GHz频段的BLE和Zigbee不同,Z-Wave使用的是低于1GHz的频段。如果您希望在全球范围内销售产品,则许多国家/地区的确切频段会有所不同,这可能会导 在美国,Z-Wave工作在908 MHz,而在欧洲,它使用868 MHz。其他国家和地区使用从865 MHz到921 MHz的所有内容。

载波频率较低有两个显着优点:增加范围和减少干扰。较低频率的无线电波进一步传播。BLE和Zigbee使用的2.4 GHz频段也用于WiFi,Bluetooth Classic甚至是微波炉,因此存在很多干扰的可能性。

Z-Wave使用的频段往往不那么拥挤。较低载波频率的缺点是较低的数据传输速度,最终比蓝牙LE慢近10倍。

Z-Wave支持最多232个设备的小型网状网络,这对大多数应用来说已经足够了。

6LoWPAN的

6LoWPAN是一种奇怪命名的技术,它结合了两种不同的首字母缩略词。6指的是Internet协议(IP)版本6,而LoWPAN指的是低功耗无线个人局域网。我知道,这个名字很敏捷。

6LoWPAN基本上是Zigbee的新竞争者。主要区别在于6LoWPAN是基于IP的网络,如WiFi。与Zigbee和Z-Wave一样,6LoWPAN主要用于家庭自动化应用和智能电表。

局域网(LAN)技术

WiFi,甚至可能比蓝牙更多,可能几乎不需要介绍。如果您的产品需要访问互联网,并且将始终在WiFi接入点附近使用,那么WiFi就是答案。由于其适度的覆盖区域,WiFi被称为局域网(LAN)技术。

WiFi快速,便宜,易于实施,具有良好的操作范围,并且可以广泛使用。至少对于移动产品而言,WiFi的最大缺点是功耗。由于功耗较高如果您不需要WiFi提供的性能通常最好使用其他无线技术。

远程蜂窝技术

如果您的产品需要访问云,但它不会始终位于WiFi接入点附近,那么您的产品可能需要蜂窝无线电进行长途通信。

您的产品所需的确切蜂窝技术类型取决于您传输数据的速度,以及产品销售地点的较小程度。

GSM / GPRS

长期以来,GSM(全球移动通信系统)与GPRS(通用分组无线业务)相结合进行数据传输已成为不需要大量数据传输的产品最常用的蜂窝技术。这主要是由于GSM / GPRS硬件的广泛可用性和相对低的硬件成本。

不幸的是,这种情况即将结束。世界上大多数蜂窝运营商都在逐步淘汰GSM,因此他们可以为需要大量数据传输的4G和5G智能手机释放更多带宽。

更不幸的是,至少还没有明显的替代技术。最可能的选择是将硬件从GSM解决方案升级到LTE蜂窝技术,但随之而来的是价格大幅提升。

LTE

LTE是一种4G蜂窝技术,支持比GSM更快的数据速率。如果您的产品需要非常快速的蜂窝数据传输速度,那么LTE可能是最佳选择。

但是,如果您的产品并不真正需要这种级别的数据速度,那么您将支付您根本不需要的硬件。嵌入式GSM模块可以从中国购买,只需几美元,而LTE模块的价格可能超过20美元。LTE的运营商服务成本也将明显高于GSM。

随着物联网(IoT)设备的大量普及这种技术选择的差距变得更加明显。不过,这个差距正在被几种不同的新无线技术所填补,我将在下一节讨论。

低功耗远程技术

如果您需要长距离,低数据通信,就像许多物联网产品一样,那么您的技术选择并不像其他应用那样清晰。这种类型的网络通常被称为LPWAN或低功率广域网。

例如,如果您的产品在远程位置收集天气数据并自动将该数据上传到云,则可能需要LPWAN技术。正如我已经指出的那样,GSM或LTE蜂窝技术都不适合低数据速率应用。

还有其他无线技术可以解决这个问题,包括LoRa,NB-IoT和LTE-M。不幸的是,这些都不是广泛支持的全球标准。这使得许多产品的实施具有挑战性或不可能性,具体取决于它们的销售地点。

LoRa / LoRaWAN

LoRa长距离的缩写)可以在某些区域进行超过6英里的远距离通信,同时消耗很少的电量。它是Semtech在2012年收购的专有无线技术

LoRa根据操作区域使用各种频带。在北美,使用915 MHz,在欧洲,频率为868 MHz。其他区域也可能使用169 MHz和433 MHz。

LoRa指的是底层技术,可以直接用于点对点通信。LoRaWAN是指上层网络协议。

如果您正在寻找低功耗,长距离,点对点的解决方案,那么LoRa是一个很好的选择。您通常可以购买比LoRaWAN模块便宜的LoRa模块。

如果您希望您的产品连接到现有的LoRaWAN网络,则需要包含网络层的更昂贵的LoRaWAN模块。不幸的是,LoRaWAN网络仅在欧洲部分地区提供,而在北美地区则不提供。这严重限制了LoRaWAN对大多数产品的实用性。

尽管LoRa的设计可以在很大范围内运行,但它并不是可以连接到移动网络的蜂窝技术。这使得它更简单,实施起来更便宜,但它的应用程序是有限的。

例如,如果您的产品需要远程访问云,那么您还需要提供LoRa网关设备以连接到Internet。网关设备连接到互联网,并与任何远程LoRa设备通信。

假设在操作范围内没有LoRa网关,LoRa不为任何单个远程设备提供远程访问云的方法。

NB-IT

与LoRa / LoRaWAN不同,NB-IoT是一种蜂窝技术。这意味着它更复杂,实施起来更昂贵,并且消耗更多功率。但是,它提供更高质量的蜂窝连接和直接访问互联网。

NB-IoT仅用于传输非常少量的数据。NB-IoT的最大缺点是可用性有限。目前还没有美国运营商支持它,目前它只在欧洲进行测试。但它有望在2019年的某个时候在美国推出。

这项技术现在可能无法在您的产品中实施,但在未来几年内它将变得更加实用。

LTE-M

如果您的产品需要具有比LoRa或NB-IoT支持的更高数据速率的远程蜂窝接入,那么LTE-M可能是您的最佳选择。

LTE-M是LTE(长期演进)Cat-M1的缩写。该技术适用于需要直接连接到4G移动网络的物联网设备。它是LTE蜂窝技术的一个子集,针对从小型电池运行的低数据速率设备进行了优化。

LTE-M在几个关键方面与标准LTE不同。 首先,实施起来更便宜,因为由于带宽更有限,可以使用更简单的芯片。

其次,它针对降低功耗进行了优化,以免快速耗尽小电池。最后,蜂窝服务成本显着降低,因为您没有使用接近标准LTE所需带宽的任何地方。

结论

选择无线技术的关键是缩小您的要求,以便您可以专注于可行的技术。所需的工作范围,数据传输速度,功耗和成本是选择无线技术的主要标准。

当然,就像工程中的所有事情一样,你不可能拥有一切。例如,大的工作范围需要增加功耗。对于更快的数据速率也是如此。这些标准之间总会有一些让步。从来没有一个完美的解决方案。

如果您正在寻找提供长距离,低功耗,高数据速率和低成本的技术,您将永远找不到真实的解决方案。相反,我建议您优先考虑您的设计标准,并从那里开始缩小您的选择范围。