Global Sources
電子工程專輯
 
電子工程專輯 > EDA/IP
 
 
EDA/IP  

可伸縮DP技術與混合OPC滿足次微米設計和製造的要求

上網時間: 2002年10月12日     打印版  Bookmark and Share  字型大小:  

關鍵字:Numerical  DP  OPC  Hybrid OPC  分佈式處理 

面對次微米設計與製造問題,工程師已成功地使用光學近似校正(OPC)和相移方法在矽片上實現了更小的特徵尺寸。本文介紹的具有伸縮性的分佈式處理(DP)和真正的混合OPC解決方案,可以使設計公司以更低的成本向0.1微米技術邁進,並縮短周轉時間。

隨著半導體產業按照摩爾定律穩步向前發展,半導體元件、製造方法和製程材料等方面的不斷提升促進設計和製造向越來越小的特徵尺寸發展。但是,從0.25微米製程向0.13微米製程的轉變顯示,製造設備的改進無法滿足在矽片上可靠地印刷最小特徵尺寸的需求(圖1)。因此,需要對次微米設計與製造進行深入的研究,因為此時特徵尺寸遠小於現有最先進的光刻設備所能產生的光波波長。

幸運的是目前已經出現了與具體設備無關的技術,它使IC設計工程師和廠商能夠改進次微米設計和製造的性能。相移光罩(PSM)技術確保在矽片上可靠地刻出更小的特徵尺寸,因而與過去相比,所製造的電晶體閘的物理尺寸就小得多。同時,採用OPC技術可以修復次微米畸變。通過擴展光解析度和現有設備的ROI,上述技術提高了設備性能,因此,半導體產業預期在2004年前能實現0.07微米以下製程。圖1:製程需求處於一個技術交叉點,在0.13微米以下領域,對PSM和OPC的需求增加了。

目前,隨著特徵尺寸的減小,設計工程師除了採用PSM和OPC方法之外,沒有其它技術能夠滿足更小幾何形狀對解析度的要求。在OPC技術獲得應用之後,數據量是隨著各級製程的遞進而線性增加的,但是隨著PSM和OPC技術的應用,需要處理的數據量呈爆炸式成長。

這種解析度增強技術需要處理大量的數據,可能導致數據量呈指數形式增加,當OPC工具過度校正設計資料庫時,問題就更為嚴重。例如,對於一個0.35微米晶片的全部光罩層,全部掩類比數位據準備(MDP)完畢通常要花費2小時左右。而對於0.18或0.15微米製程,僅僅為一層光罩進行數據準備就可能需要花費4天!因此,可以想像,對於0.07微米製程,數據量就大得驚人了!

上述情況顯示:要實現次微米解析度,就要處理巨大的數據量,因此,要找到一種辦法以便盡可能高效地處理數據。其次,不管現在採用什麼技術來解決數據問題,關鍵的一點是隨著廠商邁向下一代製程,新的解決方案必須具備快速可升級和性價比高的特點。本文闡述各種OPC技術及其與數據量的關係,然後考察解決數據量問題的各種現有解決方案的優缺點,並介紹可伸縮分佈式處理(DP)方法在數據處理中的誘人之處。

現有的兩種OPC方法

目前,OPC工具採用下列兩種方法:1. 基於規則的方法,速度很快但不夠精確;2. 基於模型的方法,非常精確但執行速度慢。

基於規則的方法是從DRC驅動的方法演變而來的,其中的OPC特徵用表格預先確定,表格建立在與每個特徵邊界對應的間距和線寬的基礎上。表格數值根據待測晶圓的實驗測量進行插值。這種方法不會嚴重影響數據量,但是,由於規則不可能考慮到各種可能的情況,在精度上會有不盡如意之處。

基於模型的方法對晶片模式進行模擬以預測晶圓的形狀,然後,可以使用預測形狀與設計形狀之間的誤差來計算沿特徵邊界進行誤差補償所需要的偏移量。這個過程通常需要反覆多次,因而速度較慢。如果改變一個特徵上的外形,就需要對相鄰的特徵進行校正。這種方法可以得到很高的精度,但代價是執行時間的延長和數據量的增加。

新的混合OPC方法

Numerical技術公司提出的OPC方法結合基於規則和基於模型這兩種方法的優點,它執行最優次數的OPC來實現最佳可能的周轉時間、光罩製程和晶圓良率。這種技術採用了一種專有選擇引擎,它考慮了間距、元件幾何形狀、製程技術和佈局中的相對區域。這種‘整體’視圖可以將設計劃分為一些適合用規則進行校正的區域和另外一些可能最適合用模型來進行校正的區域。

其獨到之處在於採用了基於形狀的OPC引擎(圖2)。傳統的基於規則的方法採用一種串列的設計規則校驗(DRC)方法,混合OPC方法將基於規則的OPC和基於模型的OPC結合起來,這種新的製造驅動的方法能夠平行、精確地處理所有的校正,無論它們是基於規則還是基於模型,這就極大地降低了資料庫的規模,並最終縮短了周轉時間。圖2:混合OPC採用了一種基於形狀的引擎,可以確保可靠的光罩製程、晶圓良率和快速的周轉時間。

大部份的現有技術都採用與OPC類似的技術來處理,它們之間的差別非常小。通常,設計分為三個參數進行處理(某些部份利用規則,某些部份利用模型):1. 設計區域(CPU、邏輯、記憶體等)。這既簡單,也易於實現。2. 幾何形狀(線寬為0.25或0.18微米等等)。這要麻煩得多,但通過基於形狀的引擎可以很快實現。3. 特徵類型(末端線、閘等等)。這時,如果沒有基於形狀的引擎就很難實現。

通常,設計工程師可以通過調整工具來間接劃分設計。例如,可以指定採用0.18微米及更大線寬的設計用基於規則的OPC來處理,而採用0.13微米及以下線寬的設計用基於模型的OPC來處理。如果不採用混合的、基於形狀的引擎,設計工程師將不得不執行大量的數據預處理工作,並將每個區段分別反饋到基於規則和基於模型的OPC引擎。這樣一來,實質上就有兩個佈局,在處理結束後要把結果合併起來。不僅合併的步驟比較複雜,而且其結果的可信度還較差,因為設計工程師無法知道兩者之間是如何互相影響的。其他所有的方法都採用兩個獨立的引擎,一個是針對規則的OPC引擎,另一個是針對模型的OPC引擎。這並不簡單地表示一個包含兩個步驟的過程,更糟糕的是,設計工程師很快就會發現它會被大量的迴圈作業以及隨之產生的無數數據所困擾。最後,如果基於規則的OPC方法(ROPC)和基於模型的OPC方法(MOPC)所對應的工具分別來自不同的廠商,設計工程師將會面對更大的挑戰。

在混合OPC方法中,基於形狀的引擎同時考慮了ROPC和MOPC。你最初的建立時間可能要長一些,因為需要查看來自設計工程師的數據以建立圖形的形狀(圖3),但花費這些時間是很有價值的。更為重要的是,在保護層次性的同時,可以利用這一特徵獲得最大的好處,在下文你可以看到這一點。由於前面已經將所有因素加以考慮,當以後設計變得更複雜時,也不會付出更大代價。從長遠來說,設計工程師將會從一個平行、精確、快速、單步式的解決方案中得到益處。

OPC本質上具備非層次性圖3:建立基於形狀的引擎的初始工作是有價值的,因為當設計規則和OPC變得更加複雜時,設計所具有的可伸縮性和周轉時間的加快使設計者獲益匪淺。

OPC技術對周圍單元的情況非常敏感。如果在一種情形下單元A與單元B相鄰,而在另一種情形下單元A與單元C相鄰,那麼兩種情況下單元A的OPC校正將各不相同。單元A的每個實例在OPC之後幾乎都不相同,因此資訊塊重用的概念也就失去了意義,這是由於OPC自身在每個點上、對於設計中的每個不同的物理位置都將具有不同的特性所致。

因此,本質上OPC不具有層次性。你可以採用最好的分層設計技術,但是執行OPC之後,數據將在某種程度上產生變化,從而層次性也就不像當初那樣分明。採用某些技術可以處理這個問題並使層次性得到恢復,但無法使它真正回覆到原始設計那樣,甚至要接近原來的設計都很困難,原因在於OPC依賴於周圍單元的情況。

此外,輔助特徵和虛擬特徵也會增加數據量,每增加一個多邊形,也就增加了幾何結構。有些工具甚至對這些特徵結構執行OPC處理,因而進一步增加了額外的多邊形。想像一下,對OPC執行OPC會怎樣!但這是可能產生的,因為輸入是GDSII格式的設計資料庫,此時它包含有虛擬特徵。如果對虛擬特徵也執行基於模型的OPC處理,這不僅意味著更長的執行時間,而且還會產生大量無用的附加數據。例如,如果虛擬特徵最初是一個矩形或梯形,那它只不過是一個具有四個頂點的簡單圖形。對它執行OPC之後,僅僅截線一項就會使多邊形的數量增加10倍。

簡而言之,隨著文件大小和數據量的成長,隨之而來的數據處理量也增加了。此外,最後還需要面對許多不同類型的數據,這就是為什麼尋找新的計算方法至關重要的原因所在。

新的計算方法

目前,要解決上述問題可以採用多線程和分佈式處理兩種方案。它們都是配置了多個CPU的平行計算方法,各自適合特定的應用情況。

在多線程中,一台機器?用不同的CPU處理不同類型的數據,而同一主記憶體為所有任務進行服務。對於小型任務,多線程處理不會產生任何問題。但是,多線程技術存在一個速度極限,在最壞的情況下,有些多線程配置可能僅僅採用四個CPU就達到了速度極限。此後,設計工程師就不得不處理記憶體競爭這種令人頭疼的問題,此時系統開始等待記憶體釋放。這意味著當增加更多的CPU時,僅僅因為存取主記憶體所佔用的時間太長,就可能抵消加速所帶來的好處,這就是‘加速了,但實際上在等待’的典型案例。多線程方法最多能夠處理10到12個節點,並能得到較好的結果。超過這個數目,它就完全無法勝任巨大數據量處理的需要。

多線程方法的另一個缺點是可伸縮性不好。例如,從1個CPU升級到4個CPU時,多線程系統並不能快4倍,事實上可能只快了3.6倍。根據具體情況,也許只能取得快2.6倍的性能。無論哪種情況,這個比例都不理想(圖4)。此外,從成本上考慮,典型的配備12個CPU的伺服器可能需要花費40萬美元以上,而且,由於它的可伸縮性不好,如果在短時間?突然需要將處理能力提高25%,那將很麻煩。在大多數情況下,不能僅僅增加4個CPU,唯一的辦法是重新買一台16個CPU的新伺服器。

上世紀七十年代,Gene Amdahl首次發現了線程或平行計算的極限。Amdahl定律揭示:通過增加CPU所提高的速度會由於CPU數量太多反而減少。原因在於這些CPU必須使用同一資源,如連接到記憶體的數據路徑(匯流排)。研究發現,使用平行處理技術有可能將性能提高100倍,而使用多線程處理技術則幾乎不可能實現。圖4:超過大約10個CPU之後,線程的可伸縮性就不夠好。隨著設計變得更複雜和數據量的增加,只有分佈式處理可以提供一種快速、可伸縮和經濟的加速處理解決方案。

與多線程不同,分佈式系統可以圍繞相對執行於廉價和高速的奔騰微處理器的基於Linux的工作站來構建。此外,分佈式系統也可以在以多線程為目的的機器上執行,只要將各CPU看成分別執行在不同機器上即可。

近年來,分佈式處理的性能和可伸縮性受到了網路頻寬的限制,但是,通過今天的聯網技術,許多限制都可以克服。此外,機架式的獨立聯網CPU群集完全克服了任何網路瓶頸。機架是由與一個網路中的主電腦對話的各個獨立電腦構成的。每台機器都有自己的CPU、記憶體和磁碟驅動器。機架有自己的網路交換裝置,可以組成一個‘群集網路’。它為群集處理所有的資訊傳輸,輔助外部企業網路和儲存陣列之間的通訊,並將這個群集CPU上處理完成的數據轉發給企業磁碟。與單台多CPU Sun工作站的成本(16個CPU價格為50萬美元以上)相比,這是一種非常經濟的解決方案(20個CPU只需要不到10萬美元)。

執行分佈式處理時,一項任務的各個部份被分派給每個獨立的電腦。完成後再將它們送回主電腦。當某個CPU顯示它已完成了自己的數據處理工作時,主電腦再將需要處理的下一批數據發送給它。雖然這看起來可能很簡單,但驅動分佈式處理的基本技術可能是極其複雜的。它需要精密的算法、層次性管理,數據結構也必須設計到軟體中去,以便資料庫在分佈式處理時能最佳地工作。

因此,主要困難在於對問題進行劃分、平行地處理問題的各個部份,然後再將結果組合起來。Numerical的軟體解決方案可以智慧地控制分佈式處理,軟體的層次性和數據管理模組採用專有方法實現,不僅能高效地按照規定的要求來劃分佈局,而且還可以連貫平行地執行OPC和校正作業,然後順利地返回所有的數據。該功能與前述的混合OPC以及有利於製造的好處相比是一大優勢。再加上無限的可伸縮性和廉價的Linux群集所有權,設計工程師將發現為什麼真正的混合OPC與分佈式處理相結合可以提供一個出色的長期方案,尤其對於那些致力於0.1微米以下製程的半導體公司更是如此。

本文小結

隨著數據量的爆炸式成長,分佈式處理技術變得備受矚目。這種方法允許將一項任務劃分給幾台擁有獨立CPU群集的機器,讓它們分別運算。從CATS類比數位據準備軟體開始,Numerical已將其新分佈式處理架構嵌入到了具有次微米光刻能力的解決方案中。

分佈式處理有兩種功能選項:


1.理想的選擇是採用N-ClusterTM,它經過了預測試,並且為執行分佈式處理進行了最佳化。
2. 如果由於某種原因更有利於業務的話,可以重用或合併自己的硬體,並在自己的機器上建立分佈式處理功能,Numerical公司可為這些不同網路的Linux部件推薦一種最佳化的群集配置。

作者:


Michael Sanie


IC設計部行銷與業務發展總監


Numerical技術公司




投票數:   加入我的最愛
我來評論 - 可伸縮DP技術與混合OPC滿足次微米設計...
評論:  
*  您還能輸入[0]個字
*驗證碼:
 
論壇熱門主題 熱門下載
 •   將邁入40歲的你...存款多少了  •  深入電容觸控技術就從這個問題開始
 •  我有一個數位電源的專利...  •  磷酸鋰鐵電池一問
 •   關於設備商公司的工程師(廠商)薪資前景  •  計算諧振轉換器的同步整流MOSFET功耗損失
 •   Touch sensor & MEMS controller  •  針對智慧電表PLC通訊應用的線路驅動器
 •   下週 深圳 llC 2012 關於PCB免費工具的研討會  •  邏輯閘的應用


EE人生人氣排行
 
返回頁首