首頁 > 要聞 >

          解剖屎山,尋覓黃金之第二彈-全球聚焦

          2023-05-02 15:55:53 程序員客棧

          大家好,我3y啊。由于去重邏輯重構了幾次,好多股東直呼看不懂,于是我今天再安排一波對代碼的解析吧。austin支持兩種去重的類型:N分鐘相同內容達到N次去重和一天內N次相同渠道頻次去重。

          在最開始,我的第一版實現是這樣的:


          (資料圖片)

          publicvoidduplication(TaskInfotaskInfo){//配置示例:{"contentDeduplication":{"num":1,"time":300},"frequencyDeduplication":{"num":5}}JSONObjectproperty=JSON.parseObject(config.getProperty(DEDUPLICATION_RULE_KEY,AustinConstant.APOLLO_DEFAULT_VALUE_JSON_OBJECT));JSONObjectcontentDeduplication=property.getJSONObject(CONTENT_DEDUPLICATION);JSONObjectfrequencyDeduplication=property.getJSONObject(FREQUENCY_DEDUPLICATION);//文案去重DeduplicationParamcontentParams=DeduplicationParam.builder().deduplicationTime(contentDeduplication.getLong(TIME)).countNum(contentDeduplication.getInteger(NUM)).taskInfo(taskInfo).anchorState(AnchorState.CONTENT_DEDUPLICATION).build();contentDeduplicationService.deduplication(contentParams);//運營總規則去重(一天內用戶收到最多同一個渠道的消息次數)Longseconds=(DateUtil.endOfDay(newDate()).getTime()-DateUtil.current())/1000;DeduplicationParambusinessParams=DeduplicationParam.builder().deduplicationTime(seconds).countNum(frequencyDeduplication.getInteger(NUM)).taskInfo(taskInfo).anchorState(AnchorState.RULE_DEDUPLICATION).build();frequencyDeduplicationService.deduplication(businessParams);}

          那時候很簡單,基本主體邏輯都寫在這個入口上了,應該都能看得懂。后來,群里滴滴哥表示這種代碼不行,不能一眼看出來它干了什么。于是怒提了一波pull request重構了一版,入口是這樣的:

          publicvoidduplication(TaskInfotaskInfo){//配置樣例:{"contentDeduplication":{"num":1,"time":300},"frequencyDeduplication":{"num":5}}Stringdeduplication=config.getProperty(DeduplicationConstants.DEDUPLICATION_RULE_KEY,AustinConstant.APOLLO_DEFAULT_VALUE_JSON_OBJECT);//去重DEDUPLICATION_LIST.forEach(key->{DeduplicationParamdeduplicationParam=builderFactory.select(key).build(deduplication,key);if(deduplicationParam!=null){deduplicationParam.setTaskInfo(taskInfo);DeduplicationServicededuplicationService=findService(key+SERVICE);deduplicationService.deduplication(deduplicationParam);}});}

          我猜想他的思路就是把構建去重參數和選擇具體的去重服務給封裝起來了,在最外層的代碼看起來就很簡潔了。后來又跟他聊了下,他的設計思路是這樣的:考慮到以后會有其他規則的去重就把去重邏輯單獨封裝起來了,之后用策略模版的設計模式進行了重構,重構后的代碼 模版不變,支持各種不同策略的去重,擴展性更高更強更簡潔

          確實牛逼。

          我基于上面的思路微改了下入口,代碼最終演變成這樣:

          publicvoidduplication(TaskInfotaskInfo){//配置樣例:{"deduplication_10":{"num":1,"time":300},"deduplication_20":{"num":5}}StringdeduplicationConfig=config.getProperty(DEDUPLICATION_RULE_KEY,CommonConstant.EMPTY_JSON_OBJECT);//去重ListdeduplicationList=DeduplicationType.getDeduplicationList();for(IntegerdeduplicationType:deduplicationList){DeduplicationParamdeduplicationParam=deduplicationHolder.selectBuilder(deduplicationType).build(deduplicationConfig,taskInfo);if(Objects.nonNull(deduplicationParam)){deduplicationHolder.selectService(deduplicationType).deduplication(deduplicationParam);}}}

          到這,應該大多數人還能跟上吧?在講具體的代碼之前,我們先來簡單看看去重功能的代碼結構(這會對后面看代碼有幫助)

          去重的邏輯可以統一抽象為:在X時間段內達到了Y閾值,還記得我曾經說過:「去重」的本質:「業務Key」+「存儲」。那么去重實現的步驟可以簡單分為(我這邊存儲就用的Redis):

          通過Key從Redis獲取記錄

          判斷該Key在Redis的記錄是否符合條件

          符合條件的則去重,不符合條件的則重新塞進Redis更新記錄

          為了方便調整去重的參數,我把X時間段和Y閾值都放到了配置里{"deduplication_10":{"num":1,"time":300},"deduplication_20":{"num":5}}。目前有兩種去重的具體實現:

          1、5分鐘內相同用戶如果收到相同的內容,則應該被過濾掉

          2、一天內相同的用戶如果已經收到某渠道內容5次,則應該被過濾掉

          從配置中心拿到配置信息了以后,Builder就是根據這兩種類型去構建出DeduplicationParam,就是以下代碼:

          DeduplicationParamdeduplicationParam=deduplicationHolder.selectBuilder(deduplicationType).build(deduplicationConfig,taskInfo);

          Builder和DeduplicationService都用了類似的寫法(在子類初始化的時候指定類型,在父類統一接收,放到Map里管理)

          而統一管理著這些服務有個中心的地方,我把這取名為DeduplicationHolder

          /***@authorhuskey*@date2022/1/18*/@ServicepublicclassDeduplicationHolder{privatefinalMapbuilderHolder=newHashMap<>(4);privatefinalMapserviceHolder=newHashMap<>(4);publicBuilderselectBuilder(Integerkey){returnbuilderHolder.get(key);}publicDeduplicationServiceselectService(Integerkey){returnserviceHolder.get(key);}publicvoidputBuilder(Integerkey,Builderbuilder){builderHolder.put(key,builder);}publicvoidputService(Integerkey,DeduplicationServiceservice){serviceHolder.put(key,service);}}

          前面提到的業務Key,是在AbstractDeduplicationService的子類下構建的:

          而具體的去重邏輯實現則都在LimitService下,{一天內相同的用戶如果已經收到某渠道內容5次}是在SimpleLimitService中處理使用mget和pipelineSetEX就完成了實現。而{5分鐘內相同用戶如果收到相同的內容}是在SlideWindowLimitService中處理,使用了lua腳本完成了實現。

          LimitService的代碼都來源于@caolongxiu的pull request,建議大家可以對比commit再學習一番:https://gitee.com/zhongfucheng/austin/pulls/19

          1、頻次去重采用普通的計數去重方法,限制的是每天發送的條數。

          2、內容去重采用的是新開發的基于redis中zset的滑動窗口去重,可以做到嚴格控制單位時間內的頻次。

          3、redis使用lua腳本來保證原子性和減少網絡io的損耗

          4、redis的key增加前綴做到數據隔離(后期可能有動態更換去重方法的需求)

          5、把具體限流去重方法從DeduplicationService抽取出來,DeduplicationService只需設置構造器注入時注入的AbstractLimitService(具體限流去重服務)類型即可動態更換去重的方法 6、使用雪花算法生成zset的唯一value,score使用的是當前的時間戳

          針對滑動窗口去重,有會引申出新的問題:limit.lua的邏輯?為什么要移除時間窗口的之前的數據?為什么ARGV[4]參數要唯一?為什么要expire?

          A: 使用滑動窗口可以保證N分鐘達到N次進行去重。滑動窗口可以回顧下TCP的,也可以回顧下刷LeetCode時的一些題,那這為什么要移除,就不陌生了。

          為什么ARGV[4]要唯一,具體可以看看zadd這條命令,我們只需要保證每次add進窗口內的成員是唯一的,那么就不會觸發有更新的操作(我認為這樣設計會更加簡單些),而唯一Key用雪花算法比較方便。

          為什么expire?,如果這個key只被調用一次。那就很有可能在redis內存常駐了,expire能避免這種情況。

          推薦項目

          最后再叨叨吧,很多人可能會發一段截圖,跑來問我為什么要這樣寫,為什么要以這種方式實現,能不能以這種方式實現。這時候,我更想看到的是:你已經實現了第二種方式了,然后探討你寫的這種方案好不好,現有的代碼差在哪里。

          畢竟問問題很簡單,我又不是客服,總不能沒誠意的問題我都得一一回答吧。

          如果想學Java項目的,我還是強烈推薦我的開源項目消息推送平臺Austin,可以用作畢業設計,可以用作校招,可以看看生產環境是怎么推送消息的。

          倉庫地址(可點擊閱讀原文跳轉):https://gitee.com/zhongfucheng/austin

          我開通了股東服務內容,感興趣可以點擊下方看看,主要針對的是項目喲

          VIP服務

          關鍵詞

          相關推薦

          亚洲av综合av一区二区三区| 亚洲Av无码国产一区二区 | 亚洲一区二区三区乱码在线欧洲| 亚洲一区二区三区四区在线观看| 国产V亚洲V天堂无码久久久| 亚洲国产一二三精品无码| 国产偷国产偷亚洲清高动态图 | 亚洲日本一区二区三区在线不卡| 亚洲A∨午夜成人片精品网站| 亚洲国产欧美一区二区三区| 亚洲丰满熟女一区二区哦| 亚洲.国产.欧美一区二区三区| 亚洲国产精华液2020| 亚洲AV无码成人网站在线观看| 亚洲av片在线观看| yy6080久久亚洲精品| 亚洲一本大道无码av天堂| 国产亚洲美女精品久久久| 国产亚洲精品a在线观看app| 亚洲阿v天堂在线| 亚洲精品电影天堂网| 亚洲国产av美女网站| 国内精品久久久久影院亚洲| 亚洲国产精品网站在线播放| 色天使色婷婷在线影院亚洲| 亚洲成A人片77777国产| 久久影视国产亚洲| 亚洲AV永久无码精品水牛影视 | 亚洲精品无码av片| 亚洲AV无码一区二三区| 国产亚洲自拍一区| 亚洲国产成人一区二区精品区| 亚洲高清专区日韩精品| 337p日本欧洲亚洲大胆艺术| 亚洲精品视频免费在线观看| 中文字幕亚洲综合精品一区| 亚洲伊人色一综合网| 亚洲熟妇成人精品一区| www国产亚洲精品久久久日本| 中文字幕亚洲日韩无线码| 久久亚洲精品国产精品黑人|