- N +

springcloud面試題100道?redis面試題及答案

這篇文章給大家聊聊關于springcloud面試題100道,以及redis面試題及答案對應的知識點,希望對各位有所幫助,不要忘了收藏本站哦。

比較好的Spring Cloud資料和學習項目有哪些推薦

一、Springcloud是什么?相信大家在看到cloud這個單詞時首先想到的便是“云”或“云計算”,其實這里并不是這個意思,Springcloud是以Springboot為基礎的快速構建分布式系統的工具集。它整合了各種各樣的工具,以方便我們開發。由于它是在Springboot的基礎上構建的,因此Springcloud擁有Springboot所擁有的特點。二、Springcloud的版本特點下圖是我從Springcloud官網截的一張圖,大部分Spring軟件版本都是以:主版本.次版本.增量版本.開發或發布版本的形式存在的,比如下圖左邊用紅色框住的版本:1.4.4.RELEASE。1代表主版本,第一個4代表次版本,第二個4代表修改版本,而RELEASE代表發布版本。而Springcloud的版本卻是“AngelSR6”這樣的形式,我們可以把Angel當做Springcloud的大版本,而SR6是ServiceRelease版本(即Bug修復版本)-------------如果我回答對你有幫助,請關注我一下。或有其他問題也可以關注我,給我發私信

mq面試必背知識點

主要有3點:解耦、異步、削峰(限流)。

其實就是在服務與服務之間增加了一個中間件,可以實現上面的三種用途。

?

解耦:我們看到,服務A強依賴服務B和C,當服務B或者C掛掉后,會直接導致服務A的不可用,這顯然不是我們所期望的。比如服務的最后一步是記錄日志,但是該服務掛了,雖然日志服務和主流服務沒有必然的業務聯系,但是因為代碼的耦合性過高,直接導致整個服務響應失敗。

異步:假如服務A本身執行只需要10ms,服務B需要5ms,服務C(日志服務)需要1s。同樣的,一個和業務本身無關的服務過長的響應時間導致了整體服務的響應超時。

削峰:假如由于服務C只是記錄日志的,服務器配置較低,1s只能處理2000條數據,但是高峰時段,每秒的請求高達10萬筆,過高的請求會導致服務器崩潰。

可以看到,其實上面所講的三種情況,都很類似,連起來可以這么理解。高峰時段導致服務C運行越來越慢,產生了“異步”所說的問題,如果長時間沒解決,可能會導致“解耦”所說的情況,即服務掛掉。

在增加了MQ以后,我們可以在服務A執行完核心業務后,將后續處理的業務數據打入消息隊列中,然后就可以返回成功。然后日志服務從消息隊列中取到對應的消息進行處理即可。這樣就實現了“解耦”和“異步”。在高峰時段,所有的數據都會打入消息隊列中,而日志服務只需要按照自己的消費水平(2000條/s)取數據就好,保證了服務的平滑穩定。

二、MQ選型

主流的MQ有4種,ActiveMQ、RabbitMQ、RocketMQ和Kafka。不過ActiveMQ雖然框架成熟、曾經是MQ中的王牌,但是現在官方的維護頻率越來越低,國內各大公司已經很少才用了,再加上吞吐量不高(比kafka低一個數量級),存在消息丟失的情況,所以現在新項目很少會采用了。

RabbitMQ是用ErLang語言開發的,性能上是最好的,但是由于ErLang語言不是主流語言,二次開發難度較高,很多想要根據實際情況進行二次開發的公司很少采用。不過如果只是簡單使用的話,還是不錯的,畢竟它的延時是最少的;并且RabbitMQ有一個最大的好處是它具有可視化界面,操作維護很方便。

RocketMQ是阿里開源的產品,經過了很多高并發項目的考驗(如雙十一),性能上是有保證的。純Java編寫,維護性高。我理解的它和kafka最大的不同有兩點,一是它支持事務;二是集群結構不一致,它沒有主從切換,當leader掛掉后,存在一定的感知時間,然后切換到follower上。

kafka的特點就是高吞吐量,一般配合大數據類的系統來進行實時數據計算、日志采集,在日志收集領域是事實上的標準。

另外,springCloud全家桶中,有一個springCloudStream消息驅動框架,該框架很好的封裝了MQ操作的相關API,減輕了開發者在MQ方面的代碼量,不過該框架只封裝了RabbitMQ和kafka這兩種MQ。

綜上,如果需要對MQ傳輸提供事務支持或者解決高并發下的業務解耦,建議采用RocketMQ,微服務框架是dubbo的話,應該也建議用RocketMQ(這個沒測過,個人猜測,畢竟都是阿里的產品)。如果是要做日志收集等工作,建議采用kafka。中小型公司使用springCloud全家桶開發的項目中,建議采用RabbitMQ(或者kafka)。

以上是查資料總結的,由于我平時都是使用的kafka,所以后面都以kafka為例了。

三、重復消費

重復消費在MQ中是一個重點問題,該問題是如何產生的?

kafka中有一個消息偏移量offset,每當消費者消費完一條消息時,執行commit,會將offset+1。如果一條消息在消費完以后尚未commitoffset,突發宕機,會讓zookeeper認為該條消息沒有被消費。導致消費者重啟后重復消費之前的數據。

如何避免?

避免重復消費的問題,與同一個服務被多次調用的問題類似,就是如何解決服務的冪等性。大致有如下幾個方案:

1、利用數據庫的唯一性約束。

2、將數據存入redis中,利用redis天然的冪等性,然后再將數據從redis同步到數據庫中

3、生產者發消息時增加一個唯一id(比如UUID),消費者消費成功后將該UUID存入redis中,每次消費前先查看該UUID是否存在。

四、消息丟失

消息丟失同樣也是MQ中是一個重點問題。由于系統中存在生產者、消費者和MQ本身三個組件,所以需要從這三個方面分別討論。

MQ本身丟失:由于kafka的集群是leader/follower模式,leader先接受消息后,再同步給follower,如果leader接收到消息后發生宕機,沒來得及同步數據給follower,這時依靠選舉機制產生了新的leader,但是它已經永遠的失去了這條消息。為了避免這種情況發生,就需要修改kafka的配置,利用kafka自身的特性來解決。

首先給topic設置replication.factor參數:這個值必須大于1,要求每個partition必須有至少2個副本。

然后在kafka服務端設置min.insync.replicas參數:這個值必須大于1,這個是要求一個leader至少感知到有至少一個follower還跟自己保持聯系,沒掉隊,這樣才能確保leader掛了還有一個follower。

然后在producer端設置acks=all:這個是要求每條數據,必須是寫入所有replica之后,才能認為是寫成功了

最后在producer端設置retries=MAX(很大很大很大的一個值,無限次重試的意思):這個是要求一旦寫入失敗,就無限重試,卡在這里了。

這樣配置以后,就可以保證只有所有的副本數據都同步成功后,才認為消息發送成功,避免了leader掛掉的情況。

消費者丟失:kafka有一個自動提交機制,每次接受到消息后自動提交offset。如果消息還未處理就掛掉了,但zk卻已經接收到消費成功的通知,顯然不合理,所以要避免使用kafka的自動提交,改為手動提交。

生產者丟失:顯然,如果配置了acks=all以后,生產者是不會發生消息丟失的。

另外,查資料發現RabbitMQ和kafka的消息丟失情況不同,這里補充一個RabbitMQ的處理方式。

MQ本身丟失:由于RabbitMQ沒有集群配置,所以只能依靠持久化到本地的方式來進行備份。如果接收到消息還沒來得及備份就掛掉了,就會導致消息丟失。不過這個概率很低。如果發生了,可以利用生產者丟失的方式處理,見下。

消費者丟失:產生原因不說了。可以采用RabbitMQ提供的ack機制,即關閉RabbitMQ自動ack,然后通過api來調用就行,在確認處理完消息后,手動提交ack通知MQ。

生產者丟失:可能存在的問題就是生產者發送消息后,網絡傳輸有問題導致了數據丟失。為了避免這種情況,一般會開啟事務機制,保證數據一致性,但是事務機制由于是同步的,會造成系統性能下降,所以可以借鑒分布式事務的理念,即confirm機制。生產者發送消息后,開啟異步接受MQ的反饋,收到后,默認消息發送成功,超時后觸發消息重發機制。

五、如何確保消息順序消費。

這個很簡單,只要保證每個消費者或者每個處理線程都對應一個隊列即可。

六、消息積壓如何處理。

畢竟流量高峰的時間存在不長,只要最初規劃MQ的空間時考慮到流量高峰的容量,一般是不會出現積壓的,除非由于代碼bug或者消費者宕機。

這時為了快速處理積壓的消息,我們除了修正bug和重啟服務器以外,還需要有提前定好的應急方案,即臨時擴容消費者,增加消費者處理速度。并且不能設置消息的TTL,保證消息一直存在。

實在沒辦法了的終極解決方案,就是拋棄部分消息,然后過了高峰以后,依靠日志等方式人肉維護。。。

最后,說一個我之前的公司,為了避免重復消費和消息丟失的解決方案,就是在生產者發送消息前和消費者接收消息后,在本地記錄一條數據,然后定時對比兩者的差異,來確保這兩個問題不會發生。同樣該方案也可用于處理積壓,完全可以拋棄消息,最后依靠生產者記錄的數據進行維護。這種方式比較適合業務分離狀態的,如購物場景,只要保證用戶下單成功即可,后續的出庫,贈加積分,贈送優惠券等功能稍緩緩也不礙事,但是如果是時效性較高的業務,比如商品查詢,可能商品描述、商品價格、商品圖片都是不同的服務在處理,如果一個服務不能正常返回,那這個業務就無法正常開展。這種情況,就建議采用限流策略了。

常見的Java面試題有哪些,如何能達到高薪就業

如果你想找一個不錯的JAVA工作,下面這些知識是你面試必須要掌握的;

常用的線程通訊工具,比如CountDownLatch、CyclicBarrier、Semaphore等JDK并發包常用工具,比如ConcurrentHashMap、BlockingQueue、DelayQueue等JDK常用類源碼解析,比如HashMap、ConcurrentHashMap等常用框架以及源碼分析,Spring、Springboot常用微服務架構,Dubbo、Springcloud等常用互聯網組件,zk、redis、rabbitMQ、kafka等常見算法最后一個比較重要的就是,心態和緣分

如果以上你都掌握并擁有了,相信你會有一個不錯的offer。

歡迎大家在評論區溝通交流!

用springcloud的多嗎

1.很多2.因為SpringCloud是一個開源的微服務框架,它提供了一系列的工具和組件來幫助開發者快速構建和管理分布式系統,而且它的生態系統非常豐富,可以滿足不同場景下的需求,因此被廣泛應用。3.SpringCloud可以幫助開發者解決分布式系統中的一些常見問題,例如服務發現、負載均衡、配置管理、斷路器等等,而且它還支持多種語言和框架,可以與其他技術棧進行無縫集成,因此在當前的互聯網開發中,使用SpringCloud已經成為一種趨勢。

springcloud七大組件

SpringCloud七大組件:

1、Eureka組件,描述了服務如何進行注冊,注冊到哪里;

2、Ribbon組件;

3、Feign組件,一個聲明web服務客戶端;

4、Hystrix組件,容錯管理工具;

5、Config組件,配置管理開發工具包;

6、Zuul組件,邊緣服務工具;

7、Bus組件,事件、消息總線,用于在集群(例如,配置變化事件)中傳播狀態變化。

如果你還想了解更多這方面的信息,記得收藏關注本站。

返回列表
上一篇:
下一篇: