• 36

N社Mirrorless全裸出鏡

馬赫迪 wrote:
當導線越長,訊號在線路中的電流越小。電容跟電阻在充電的過程中存在著一個對時間的線性關係。...(恕刪)


感謝指教

我講的是CMOS處理資料傳輸至影像引擎IC的部份, 我認為這裡最耗時
(每個color sensor單獨傳輸,單次一張照片至少2400萬次)
完全忽視半導體資料收集與運算的部份與所花費時間

因為2400萬個color sensor資料收集可"同步運作"

我講的傳輸資料可不行,要逐一傳輸

是否你認為其他地方更耗時?


另外CMOS資料傳輸到影像引擎IC之間的導線中傳輸資料

應該是傳遞電磁波吧

導線中傳遞速率是電場磁場的傳遞速率

光是電磁波的一種

導線中電場磁場傳遞速率
印象中是可見光在真空中的百分之九十幾

用光來算30萬公里/sec是高估了不少
用光是不妥

那CMOS資料傳輸到影像引擎IC之間的導線越長

是否與CMOS資料傳輸到影像引擎IC的時間呈現"正相關"??

粗略的計算, 是想表達假設片幅越大, 導線平均長度也越長

CMOS資料傳輸到影像引擎IC的時間

彼此有"正相關"關係, 非正比關係(我正比關係來估算, 產生簡單具體數字供了解, 不夠嚴謹的確不妥, 考量用正相關表達無法產生數字, 難產生數字概念)

若非正相關關係, 請詳細說明有何種關係?
是個學習的好機會

若真要考量各個IC對各別資料傳輸的控制運算儲存速度,
那應該也是將我原本算的時間乘以一個大於1的倍數, 遠高過我估的時間(2400萬次的時間)




benjamin6168 wrote:
是否還要加上鏡頭縮放光圈的過程?這個縮放光圈的瓶頸,應該單反和無反都會遇到!...(恕刪)

由於我一開始就只針對"探討1吋機與全幅機在20fps+AF-C時的差異"發言,所以光圈縮放固然也是"機件移動"物理性的耗時項目,屬於"拖累效率的頭號嫌疑犯"之一,但1吋機與全幅機的鏡頭在對焦時,會有縮放光圈上的必然差異嗎?也就是說,小片幅相機的鏡頭在對焦程序中,會比全幅減少縮放光圈的動作?還是必然省時?這點我不敢肯定,所以沒有列入。

哈~我也是外行,正在摸象學認豬,沒懂那麼多。

看大家對於連拍速度討論得這麼熱絡,小弟我在半導體也算打滾多年,也提一下淺見,望各位前輩們海涵。
Sony的full frame sensor 可以達成高解析度又高速20連拍,有一個很重要的技術如之前幾位大大所提Stack Memory with CMOS sensor。這是一個不太容易的封裝技術,將CMOS sensor與Memory die bonding 在一個3D TSV結構上,提供垂直連結至memory上,再等待寫入ASIC。跟傳統架構Sensor to ASIC比較(先平面再垂直),整體訊號路徑縮短不少,寄生電容大家都控制得差不多,都已經很低了,不過寄生電感少了不少,尤其跟傳統使用打線連結的金線來比較。有跑過signal integrity 的電性模擬工程師都知道,傳輸速度要提升,最大的敵人就是寄生電感,要達到更快只能想辦法減低迴路長度,並提供良好的接地。
Sony導入更先進的wafer to wafer bonding, back side illumination & TSV技術之後,才可讓sensor與memory對bond再連接到ASIC,整個電路透過3D IC整合達到非常短的路徑,才突破之前sensor的瓶頸,整個製程水準技術很高,Sony在異質製程整合上用了很多苦心。
chenjihan wrote:
看大家對於連拍速度討...(恕刪)

一個看似無心提到的小問題,卻引來這麼多專業人士的精闢分析,真的是收穫滿滿!
非常感謝🙏
這也可以看看
https://patents.google.com/patent/JP2018028677A/en?q=~patent%2fUS20180139435A1&sort=new&page=6

irontheone wrote:
對,就是這樣子。。...(恕刪)


(回一下好幾頁前的文)
看來是我誤解你的意思和我對A9的認知錯誤了
如果用A7M3的10FPS實體快門(同步為1/250)
這個問題是不是就可以改善了(先不管A9和A7M3是不是同個等級的對焦系統)
c230 wrote:
(回一下好幾頁前的...(恕刪)


對,這是目前電子快門的通病,誰家都改不了。。

然而,如果不追求那種極端的20FPS(都快變成影片了),不使用電子快門,目前泥坑的高速快門那怕是4500萬像素,還是能輕鬆的沖上去9FPS的,其實這個速度已經是十年前的高階旗艦機的水準了。。
不是要說S家壞話,目前的相機實体快門,還真是C/N兩家做得較高速,也許說句不好聽的,就是S家在『傳統』上是有點不安份,然後才被說成是『黑科技』,然而,這黑科技還是有代價的。
當然,這種代價是不是能接受呢?這絕對是因人而異的,而且大部份人也不一定會發現的(因為不需要拍到那種場景,例如前面我舉出的拍攝旋槳飛機的場景,只是那個所謂『用家測試』可能不了解Rolling Shouter而偏選了這個題材拍攝,讓人對A9多了個『攻擊』的藉口罷了。)。

所以,從『傳統硬照』上來說,泥坑新無反的連拍性能(實体快門下實現),我完全不用擔心會不會落後於人,當然,電子快門有其好處,我也願意使用,但大部份非極端題材下,泥坑無反的快門應用還是可以靠實体快門去沖高速連拍的,自然不會出現『狀況』了。
而且,理論上以泥坑家的實力來說(還有佳能),2400萬像素應該可以輕鬆的使用實体快門達成12FPS或以上的連拍速速的(目前兩家2000萬像素的最高連拍速度是14FPS)

elfwong wrote:
感謝指教我講的是CMOS...(恕刪)


CMOS sensor 讀取資料是by row .就是一行 一行的送

D850 微例,就是丟5584次.

我以前接觸CMOS sesnor 時,因為畫素低,所以Data line 是 並列 16/32 bit

但是畫素越來越高的現在,有可能會採用類似 DDR 的技術來增快傳輸時間



elfwong wrote:
感謝指教我講的是CMOS...(恕刪)


錯的離譜
http://ccf.ee.ntu.edu.tw/~ypchiou/Intro_EO/CMOS_Image_Sensor.pdf


1. 現行數位相機用的影像處理ic應該都在1GHz clock以下,不是intel CPU的4GHz或手機的2GHz
2. CMOS image sensor 只負責抓光子轉電子,之後一行一行資料被選擇,經過類比數位轉換器,這個速度又比影像處理ic更慢,轉完數位才到影像處理器(另一顆IC) ,兩顆IC中間的傳輸不見得有瓶頸,因為bus不需要用標準的,I/O數量上千也不是問題,除非買來的處理器。
3. Stack CMOS 就是要弭平ADC太慢的問題,熟悉電路的人有沒有發現sensor跟記憶體架構很像?利用BSI製程特性,中間可以再塞記憶體,讓ADC一次處理不完的資料先放著別爆量了。
4.IC中沒有光速這個東西,在16奈米製程每級閘開關就要50pico sec以上,一個簡單的全加法器就要0.5ns,這也是時脈最快有個極限的原因,以前8086到pentium時脈用衝的,現在都卡在瓶頸了,i7這種都是全部客制偷時脈的還僅能如此,若是換成手機用的標準版本元件用上七奈米製程最快也就3GHz,而數位相機這種低階(量少)產品,用的製程可能還在40/28奈米,想要快到哪去? 如果廠商不計代價是可以做出8K 60p 200MBps的機器,問題一台賣幾千萬上億有人買嗎?
另一個作法就是單顆速度快不了,就多顆平行處理吧,如果電(高壓特規,dc電源供應),和熱(液氮冷卻)不是問題的話!

chenjihan wrote:
看大家對於連拍速度討...(恕刪)

哇哇,近來簽到順便增長一下知識,感謝大家不吝於分享各行專業
我是酷褲...>>https://wsph.net
  • 36
內文搜尋
X
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 36)
Mobile01提醒您
您目前瀏覽的是行動版網頁
是否切換到電腦版網頁呢?