Anonim

एकल लेंस, रोशनी और स्वायत्त कारों को बेहतर दृष्टि देने के लिए हल्के क्षेत्र 4 डी कैमरा

विज्ञान

डेविड Szondy

1 9 अगस्त, 2017

दो 138 डिग्री प्रकाश क्षेत्र पैनोरमा (शीर्ष और केंद्र) और दूसरे पैनोरामा (नीचे) का गहराई अनुमान (क्रेडिट: स्टैनफोर्ड कम्प्यूटेशनल इमेजिंग लैब / फोटॉनिक सिस्टम्स इंटीग्रेशन लेबोरेटरी यूसी सैन डिएगो में)

एक रोबोट अपने सेंसर के जितना ही अच्छा है, इसलिए स्टैनफोर्ड यूनिवर्सिटी और यूसी सैन डिएगो के शोधकर्ताओं ने एक नया "4 डी " कैमरा विकसित किया है जो रोबोटिक दृष्टि को काफी बढ़ाता है। रोबोट को न केवल नेविगेट करने की अनुमति देने के लिए 138-डिग्री क्षेत्र के दृश्य में जानकारी प्राप्त करने के लिए पहली बार एकल-लेंस, विस्तृत क्षेत्र दृश्य, प्रकाश क्षेत्र कैमरा, नई प्रणाली गोलाकार लेंस और उन्नत एल्गोरिदम का उपयोग करती है, लेकिन यह भी बेहतर उनके पर्यावरण को समझें।

जब से 1 9 70 के दशक में आधुनिक रोबोट उभरने लगे, तब से ऐसी मशीनों को दृष्टि देने की समस्या ने इंजीनियरों का सामना किया। वर्षों से, विभिन्न समाधानों की कोशिश की गई है, जैसे स्टीरियोस्कोपिक कैमरे, लेजर इमेजिंग, रंग विश्लेषण, पिक्सेल गिनती, और गहरी शिक्षा। अब स्टैनफोर्ड / यूसी सैन डिएगो टीम कम्प्यूटेशनल कैमरे (एससीएनआईसीआईसी) कार्यक्रम के साथ डार्पा के सैनिक सेंनेट्रिक इमेजिंग के लिए विकसित गोलाकार लेंस का उपयोग करके एक नए प्रकार के कैमरे में बदल रही है।

इन लेंसों को 125 मेगापिक्सल प्रति वीडियो फ्रेम के संकल्प पर 360 डिग्री की छवियों को बनाने के लिए कैमरे के चारों ओर सर्कल के लगभग एक तिहाई हिस्से को देखने के लिए एक क्षेत्र का दृश्य प्रदान करने के लिए बनाया गया था। मूल संस्करण में, वीडियो कैमरा ने गोलाकार छवियों को फ्लैट फोकल विमानों में बदलने के लिए फाइबर ऑप्टिक बंडलों का उपयोग किया। यह काम किया, लेकिन यह भी महंगा था।

नया कैमरा यूसी सैन डिएगो और डिजिटल सिग्नल प्रोसेसिंग और स्टैनफोर्ड से लाइट फील्ड फ़ोटोग्राफ़ी तकनीक द्वारा विकसित लेंसलेट के संयोजन के पक्ष में फाइबर बंडलों के साथ विवाद करता है, जो टीम कहती है कि कैमरे को "चौथा आयाम " देता है।

यह प्रकाश क्षेत्र प्रौद्योगिकी लेंस में प्रवेश करने वाली रोशनी की दो-अक्ष दिशा लेती है और इसे 2 डी छवि के साथ मिश्रित करती है। जैसा कि लिट्रो की पसंद से उपभोक्ता प्रकाश क्षेत्र कैमरों के मामले में है, इसका मतलब है कि छवि में अब प्रकाश की स्थिति और दिशा के बारे में अधिक जानकारी है और उन्हें कब्जा करने के बाद छवियों को फिर से शुरू करने की अनुमति मिलती है। इसके अलावा, यह रोबोट को ऐसी चीजों के माध्यम से देखने की इजाजत देता है जो बारिश जैसे उनकी दृष्टि को अस्पष्ट कर सकते हैं। कैमरा क्लोज-अप छवियों को बेहतर बनाने में सक्षम है और ऑब्जेक्ट दूरी और सतह बनावट को बेहतर ढंग से सुनिश्चित करता है ..

"स्टैनफोर्ड में इलेक्ट्रिकल इंजीनियरिंग प्रोफेसर गॉर्डन वेटज़स्टीन कहते हैं, " यह विभिन्न प्रकार की कृत्रिम बुद्धिमान तकनीक को समझने में सक्षम हो सकता है कि कितनी दूर वस्तुएं हैं, चाहे वे आगे बढ़ रहे हों और क्या उन्होंने बनाया है। " "यह प्रणाली किसी भी परिस्थिति में उपयोगी हो सकती है जहां आपके पास सीमित स्थान है और आप चाहते हैं कि कंप्यूटर इसके आसपास की पूरी दुनिया को समझ सके। "

कैमरा वर्तमान में एक सबूत-ऑफ-अवधारणा डिवाइस है, लेकिन शोधकर्ता मानते हैं कि जब तकनीक परिपक्व होती है, तो यह रोबोटों को छोटे क्षेत्रों, भूमि ड्रोन, सहायता स्वयं ड्राइविंग कारों में नेविगेट करने में मदद करेगी, और उत्पादन के लिए उन्नत वर्चुअल रियलिटी सिस्टम को सक्षम करेगी निर्बाध, एकीकृत प्रतिपादन। अगला चरण एक वास्तविक रोबोट में एक अधिक कॉम्पैक्ट प्रोटोटाइप स्थापित करना होगा।

यह शोध जुलाई में कंप्यूटर विजन और पैटर्न रिकग्निशन (सीवीपीआर) पर 2017 सम्मेलन में प्रस्तुत किया गया था।

नीचे दिया गया वीडियो वाइड-एफओवी मोनोसेन्ट्रिक लाइट फील्ड कैमरा से पहली छवियों को दिखाता है।

स्रोत: यूसी सैन डिएगो

दो 138 डिग्री प्रकाश क्षेत्र पैनोरमा (शीर्ष और केंद्र) और दूसरे पैनोरामा (नीचे) का गहराई अनुमान (क्रेडिट: स्टैनफोर्ड कम्प्यूटेशनल इमेजिंग लैब / फोटॉनिक सिस्टम्स इंटीग्रेशन लेबोरेटरी यूसी सैन डिएगो में)

अनुशंसित संपादक की पसंद