Projektowanie i prototypowanie

Projektowanie i prototypowanie

Projektowanie i prototypowanie układów i urządzeń elektronicznych, to w dzisiejszych czasach przysłowiowy „temat-rzeka”, a może nawet „temat-morze”. Dotyczy zarówno niezwykle obszernego spektrum rozwiązań technologicznych, jak i aplikacyjnych. W dodatku możliwe jest stosowanie metod o znacznym zróżnicowaniu stopnia trudności jak i złożoności. W tym artykule podjęto próbę dokonania przeglądu praktycznie stosowanych rozwiązań – jednak z pełną świadomością, że niektóre z poruszonych zagadnień zostały jedynie zasygnalizowane.

Projektowanie oraz prototypowanie układów i urządzeń elektronicznych może być postrzegane przez praktyków jako proste, intuicyjne działanie, ale też jako bardzo złożony, wieloetapowy proces. W pierwszym z tych przypadków możemy mieć do czynienia zarówno z niewielkim doświadczeniem zaangażowanej osoby, jak i z ogromnym doświadczeniem praktycznym oraz wiedzą teoretyczną zespołu projektowego. W drugim wymienionym przypadku (złożony, wieloetapowy proces), także można mieć do czynienia z dwoma skrajnymi spojrzeniami: osoby mało doświadczonej i jeszcze nieco przerażonej możliwymi wyzwaniami projektowymi, ale także podmiotu o ogromnym doświadczeniu i bardzo profesjonalnym podejściu do postawionego zagadnienia.

Obiektywne spojrzenie na tak postawione zagadnienie zależy od wielu czynników – zarówno czysto technicznych, jak i komercyjnych, czysto biznesowych. Projektowi realizowanemu czysto hobbystyczne można wiele wybaczyć z uwagi na główne cele: trochę eksperymentalne, trochę rozwojowe. Zupełnie inaczej jest z projektami komercyjnymi, gdzie na ich twórcach spoczywa zwykle duża odpowiedzialność prawna i finansowa za wytworzony projekt i produkt końcowy. W szczególności, konsekwencje wszelkich wad (czy nawet pomniejszych niedociągnięć) końcowego produktu mogą kosztować utratę zaufania oraz szacunku do marki (a w konsekwencji utratę pozycji rynkowej). Mogą się z tym wiązać, także znaczne straty finansowe na skutek wysokich kosztów serwisowania czy ostatecznie utylizacji produktu.

W dalszej części artykułu podjęto próbę zmierzenia się z głównymi aspektami poruszonych zagadnień – jednak z pominięciem licznych aspektów roli oprogramowania, które same w sobie stanowią temat na osobny artykuł tematyczny, dedykowany gremium konstruktorskim.

Ogólne zasady projektowania

Ogólne zasady projektowania układów i urządzeń elektronicznych, są pełne licznych szczegółów, kryteriów (często wzajemnie sprzecznych) oraz wymogów zupełnie niezwiązanych z tzw. „czystą myślą technologiczną”. Chodzi tu przede wszystkim o wspomniane wcześniej uwarunkowania komercyjne, wynikające z partykularnych oczekiwań docelowych adresatów tworzonych projektów. Z drugiej strony bagatelizowanie aspektów czysto technicznych na rzecz priorytetu dla aspektów biznesowych, także może okazać się zgubne w skutkach. Konsekwencje mogą dotyczyć kategorii czysto biznesowych, a konkretnie wymiarów: finansowego, prawnego czy PR (public relations – relacje publiczne, aspekty wizerunkowe).

Typowy, pełny cykl realizacji projektu układu czy urządzenia elektronicznego, ze szczególnym uwzględnieniem zadań samego projektowania i prototypowania powinien wyglądać tak, jak to ujęto w ramce. W pewnych wypadkach możliwe będzie pominięcie niektórych z opisanych etapów prac, w innych konieczne może okazać się wielokrotne powtórzenie wybranych działań, albo nawet zagnieżdżenie części z nich w innych – zwłaszcza, jeśli urządzenie docelowe ma modułową strukturę, a cały projekt musi zostać podzielony na podprojekty.

W przypadku prostych i niedrogich projektów urządzeń amatorskich, bardzo często pomijane są mało znaczące aspekty kosztowe, a wybierane rozwiązania bazują na już sprawdzonych i dostępnych solucjach. Z kolei w przypadku rozbudowanych konstrukcji warto jest podzielić projekt na mniejsze fragmenty – tak, aby uniknąć rozwiązywania zbyt wielu istotnych (ważnych i trudnych) problemów równocześnie. Oczywiście, takie podejście z kolei będzie implikowało konieczność zapewnienia interakcji i koordynacji pomiędzy poszczególnymi podprojektami oraz ujętymi w nich rozwiązaniami technicznymi.

W kolejnej części artykułu opisano praktyczny przykład zastosowania podanych powyżej ogólnych zasad projektowania układów i urządzeń elektronicznych. Przykład ten opracowano w odniesieniu do projektu modułowego odbiornika nasłuchowego „RX Dosia 80/40” prezentowanego w ciągu ostatnich niemal trzech lat na łamach „Elektroniki Praktycznej”.

Praktyczny przykład realizacji prostego cyklu projektowego

Rozwinięcie podanych etapów cyklu projektowego podano w formie odniesień do poszczególnych punktów z powyższego ustępu.

Ad.1. Jako założenie wstępne przyjęto, że użytkownik końcowy odbiornika nasłuchowego jest mało lub średnio doświadczonym elektronikiem-amatorem. Założono także, że łączny koszt realizacji projektu nie powinien być zbyt wysoki i rozłożony w czasie. Przyjęto też, że konstrukcja urządzenia, choć niezbyt skomplikowana, to jednak nie powinna być trywialna i winna nieść ze sobą solidną porcję wiedzy praktycznej.

Ad.2. Jako optymalne rozwiązanie zdefiniowanego powyżej zadania konstruktorskiego przyjęto, że:

  • konstrukcja powinna być modułowa, co pozwoli na podzielenie wyzwań, związanych z uruchomieniem urządzenia, na mniejsze fragmenty, oraz znacznie obniży i rozłoży w czasie koszty realizacji całej konstrukcji,
  • odbiornik powinien być co najwyżej dwupasmowy (na podstawowe pasma 80 m oraz 40 m), co ułatwi jego strojenie, a także da największe szanse na realizację pierwszych, fonicznych nasłuchów w języku polskim,
  • przy konstrukcji odbiornika powinna zostać zastosowana wyłącznie łatwo dostępna „przewlekana” technologia montażu THT,
  • aby uniknąć potencjalnych zawiłości i trudności, związanych z filtracją jednowstęgową SSB (Single Side-Band) przyjęto, że zupełnie wystarczającym rozwiązaniem będzie implementacja odbiornika homodynowego DSB (Double Side-Band), tzn. z bezpośrednią przemianą częstotliwości do pasma podstawowego „audio”,
  • konstrukcja powinna dostosowana do wskazanego typu obudowy, co zdejmie z osoby realizującej odpowiedzialność za samodzielny dobór odpowiednich rozwiązań w tym zakresie.

Ad.3. W ramach licznych rozwiązań technicznych wstępnie wybrano następujące:

  • konstrukcja modułowa, składająca się z kilku modułów, pozwalających na ich niezależne: uruchomienie, testowanie, a także stosowanie w innych konstrukcjach,
  • homodynowy odbiornik dwupasmowy na pasma 80m i 40m z w pełni półprzewodnikową komutacją pasm (bez przekaźników), co powinno ułatwić wykonanie, a także obniżyć koszty, zmniejszyć wymiary całkowite i dodać pewien walor edukacyjny,
  • mieszacz cyfrowy, oparty o bardzo popularne, tanie i wciąż bardzo łatwo dostępne klucze analogowo-cyfrowe z serii 74HC4066. Odrzucono rozwiązania oparte o klasyczne mieszacze analogowe z serii: NE/SE 602/612 i podobne. Są to rozwiązania przestarzałe, mało odporne na przesterowania, coraz trudniej dostępne,
  • prosty, analogowy generator VFO, dostarczający na wyjściu cyfrowego sygnału sterującego mieszaczem, skonstruowany z powszechnie dostępnych podzespołów – odrzucono rozwiązania oparte o klasyczne diody pojemnościowe (tzw. „warikapy”), których asortyment sprzedażowy na pasma krótkofalowe został praktycznie wyczerpany z uwagi na zmierzch epoki analogowych odbiorników radiowych na te pasma,
  • scalony wzmacniacz audio, niskoszumny, stereofoniczny i dostosowany zarówno do pracy z głośnikami jak i z popularnymi słuchawkami,
  • zaimplementowane w jak najprostszy sposób funkcjonalności: Automatycznej Regulacji Wzmocnienia ARW (AGC – Automatic Gain Control), pomiaru siły odbieranego sygnału (tzw. S-metra), cyfrowego pomiaru odbieranej częstotliwości (tzw. F-metra) oraz pamięci ustawień roboczych.

Ad.4. Etap tzw. „studium wykonalności” został ograniczony w tym przypadku do niezbędnego minimum, bowiem wybrane rozwiązania w znacznym stopniu bazowały na istniejących, już sprawdzonych i nieskomplikowanych koncepcjach technicznych. Jakkolwiek, przed przystąpieniem do realizacji projektu docelowego wykonano i przetestowano prototypy najbardziej krytycznych bloków funkcjonalnych. W zakresie projektu docelowego podjęto także decyzję o sposobie podziału projektu na moduły i o umieszczeniu całości urządzenia na wspólnej płycie podstawy. W zakresie produkcji seryjnej, magazynowania, dystrybucji i obsługi posprzedażowej urządzenia założono, że ta część procesu projektowego będzie oparta o klasyczne, sprawdzone rozwiązania, stosowane przez firmę zamawiającą.

Ad.5. W ramach wyboru rozwiązania docelowego dokonano podziału projektu na konkretne bloki funkcjonalne i realizujące je moduły. Ustalono też warunki zasilania całego urządzenia, a także wyznaczono ramy gabarytowe dla całej konstrukcji i jej poszczególnych modułów oraz wybrano konkretny model obudowy, dobrze dopasowany do zdefiniowanej wcześniej konstrukcji elektryczno-mechanicznej.

Ad.6. W trakcie realizacji projektu docelowego nie napotkano na trudności, które wymusiłyby powtórzenie któregokolwiek z etapów 1...5 cyklu projektowego, co zasadniczo dobrze świadczy o sposobie i jakości wcześniejszego przeprowadzenia wymienionych kroków.

Na fotografii 1 pokazano sposób realizacji podstawowych założeń projektu.

Fotografia 1. Kontrola dopasowania modułów prototypowych i obudowy do płyty podstawy

Worst Case Design

Określenie „Worst Case Design” oznacza projektowanie na najgorszy możliwy przypadek i jest jest swego rodzaju metastrategią postępowania przy projektowaniu układów i urządzeń elektronicznych na wielu etapach tych działań. Jest bezpośrednio powiązana z koncepcjami: „Worst-case circuit analysis” (analiza obwodów z uwzględnieniem najgorszego możliwego przypadku, http://bit.ly/3b9uPv2) oraz „Worst-case scenario” (najgorszy możliwy scenariusz, http://bit.ly/2vBxYEY). Nie wnikając zbytnio w jej wszelkie możliwe odmiany, warianty i ich praktyczne zastosowania w praktyce inżynierskiej, ekonomicznej czy choćby logistycznej, WCD w bezpośrednim odniesieniu do projektowania urządzeń i układów elektronicznych sprowadza się do:

  1. Uwzględnienia w realizowanym projekcie wszelkich możliwych odstępstw (tolerancji, dopuszczalnych marginesów) parametrów dla wszystkich stosowanych podzespołów, elementów i rozwiązań – ze szczególnym uwzględnieniem ich negatywnego wpływu na projekt układu.
  2. Uwzględnienia możliwych skutków wzajemnych interakcji wymienionych powyżej odstępstw.
  3. Doboru i zastosowania takiej koncepcji projektowej (np. poprzez wybór optymalnej topologii danego układu oraz wybór poszczególnych elementów), by opracowany projekt i produkt końcowy (także z uwzględnieniem aspektów wielkoseryjnej produkcji) charakteryzował się jakością jak najmniej uzależnioną od skutków wspomnianych tolerancji, albo przynajmniej jakością uzależnioną od wymienionych czynników w kontrolowany sposób.

Założenia teoretyczne tej metody wydają się proste i oczywiste, ale ich realizacja praktyczna może nie być łatwa i tak samo intuicyjna. W ramach realizacji wytycznych z punktu pierwszego, doświadczony, dobrze przygotowany do swojego zadania konstruktor z łatwością odnajdzie w kartach katalogowych planowanych do wykorzystania podzespołów wartości ich krytycznych w danym zastosowaniu parametrów oraz możliwe zakresy tolerancji w wybranych warunkach pracy (np. zakresie napięć zasilania, prądów roboczych czy temperatur pracy). W przypadku nie dość satysfakcjonujących właściwości należy szukać podzespołów o lepszych parametrach, co może jednak wiązać się z trudnościami w ich pozyskaniu i/lub podwyższonym kosztem zakupu.

Większe trudności zaczynają się w punkcie drugim, w którym ukryte są możliwe interakcje pomiędzy odstępstwami (rozrzutem) parametrów poszczególnych podzespołów. Najprostszym i zarazem najlepszym rozwiązaniem będzie oczywiście zastosowanie podzespołów o jak najmniejszym rozrzucie wartości krytycznych parametrów (podobnie, jak w odniesieniu do punktu 1.), ale nie zawsze będzie to możliwe z odpowiednim skutkiem. Wtedy z pomocą może przyjść sprawdzona meta-strategia optymalizacyjna (stosowana szeroko w różnych zagadnieniach optymalizacyjnych – nie tylko inżynierskich), znana pod potoczną nazwą „dziel i zwyciężaj”. Chodzi tu o podział układu (a więc i problemu projektowo-optymalizacyjnego) na mniejsze podproblemy, jak najmniej powiązane ze sobą parametrycznie (tzn. z minimalizacją wzajemnej interakcji w zakresie parametrów roboczych).

Niestety, w niektórych wypadkach takie podejście nie będzie możliwe wcale lub dalszy podział układu na mniejsze podukłady nie będzie wykonalny. Wówczas wkroczymy w obszar punktu trzeciego, gdzie trzeba będzie dobrać odpowiednie rozwiązanie układowe i sprawić, by rozrzut wartości krytycznych parametrów zastosowanych podzespołów nie pogorszył w znaczący sposób jego działania. Z pozoru prosta i intuicyjna metodyka działań projektowych, okazała się pełna złożonych uwarunkowań, ukrytych trudności i wzajemnych interakcji.

Analiza wrażliwościowa – podstawy i zastosowania

Wartości parametrów elementów i podzespołów, z których zbudowany jest praktycznie każdy układ elektroniczny, zwykle różnią się w pewnym stopniu od tych przyjętych przez konstruktora. Przy seryjnej produkcji układów elektronicznych, parametry poszczególnych egzemplarzy mogą ulegać nierzadko znacznemu rozrzutowi. Różnice będą wynikały przede wszystkim z tolerancji (odchyłek wartości) parametrów poszczególnych podzespołów, ale też i w pewnym stopniu z niedoskonałości zastosowanych procesów technologicznych, a także zestarzenia się elementów czy zmian klimatycznych. Można mówić wówczas o rozrzutach wartości parametrów układów elektronicznych. Rozrzuty te sprawiają, że parametry zewnętrzne układu elektronicznego (jak np. napięcia wyjściowe, wydajności prądowe, impedancje znamionowe, transmitancje w dziedzinie widma częstotliwości czy odpowiedzi czasowe) również będą odbiegały od tych założonych przez konstruktora.

Aby móc uwzględnić wpływ wymienionych zjawisk na parametry zewnętrzne układu, oblicza się wpływ niewielkich zmian wartości parametrów elementów na parametry zewnętrzne układu. Tą procedurę nazywamy „analizą wrażliwościową”. Z teoretycznego punktu widzenia opiera się ona na analitycznym opisie układu elektronicznego w formie złożonej funkcji wielu zmiennych (zazwyczaj silnie nieliniowej), obowiązującej dla danych warunków pracy układu (tzn. punktu pracy oraz częstotliwości w przypadku układów zmiennoprądowych). Do takiego analitycznego opisu układów stosowane są dość podstawowe metody analizy matematycznej (rachunku różniczkowego), a konkretnie rozwinięcie (przybliżenie) funkcji nieliniowej w otoczeniu danego zestawu wartości parametrów roboczych (nominalnych) w tzw. „szereg Taylor’a” (http://bit.ly/2IVo4RF), który przyjmuje postać wielomianu wielu zmiennych. Jeśli oznaczylibyśmy interesujący nas, badany parametr zewnętrzny układu literą k, a zestaw parametrów wewnętrznych układu, od wartości których zależy wartość k, wektorem x, gdzie:

(1)

to funkcja wyznaczająca wartość k (w ujęciu ogólnym – nieliniowa) miałaby postać:

(2)

Rozwijając zależność (2) na szereg Taylor’a wokół wartości x0 (nazywanych wartościami nominalnymi) otrzymujemy wyrażenie:

(3)

Dla niewielkich przyrostów:

(4)

można uwzględnić tylko dwa pierwsze składniki rozwinięcia (i pominąć pozostałe):

(5)

gdzie:

(6)

jest nazywane wrażliwością bezwzględną parametru k na wielkość xi. Stosowane bywają również definicje wrażliwości względnej:

(7)

oraz dwóch wrażliwości półwzględnych:

(8)
(9)

Wykorzystując wyrażenia (5) oraz (7) można napisać alternatywną zależność, opisującą zmianę wartości parametru k:

(10)

W praktyce, wyznaczanie rzeczywistych charakterystyk wrażliwościowych układów elektronicznych wykonuje się za pomocą oprogramowania przeznaczonego do komputerowej symulacji, np. z rodziny programów „SPICE” np „SPICE2” czy „PSPICE”. Często wykorzystuje się dwa dość podstawowe parametry: wrażliwość oraz wrażliwość znormalizowaną. Jeśli badanym parametrem byłby potencjał V(n), wyznaczony dla n-tego węzła w układzie, to jego wrażliwość względem parametru układu P (element sensitivity) będzie pochodną cząstkową potencjału węzłowego V(n) względem parametru P:

(11)

W programach symulacyjnych wykorzystuje się także tzw. „wrażliwość znormalizowaną” (normalized sensitivity), wyznaczaną względem 1-procentowej zmiany parametru P:

(12)

Warto wspomnieć o tym, że możliwe jest wykonanie podobnych analiz (oczywiście, za pomocą odpowiednio zmodyfikowanych zależności) zarówno dla parametrów o wartościach zespolonych, jak i dla tzw. wielkoprzyrostowych zmian wartości badanych parametrów (analiza „wrażliwości wielkoprzyrostowej”). Jakkolwiek, z racji znacznej złożoności i obszerności wspomnianych zagadnień, nie będą one szerzej omawiane w tej publikacji o charakterze przeglądowym. Prosty przykład zastosowania analizy wrażliwościowej do projektowania układów elektronicznych zostanie podany w dalszej części artykułu.

Adam Sobczyk SQ5RWQ
sq5rwq@gmail.com

Artykuł ukazał się w
Kwiecień 2020
Zobacz też
Elektronika Praktyczna Plus lipiec - grudzień 2012

Elektronika Praktyczna Plus

Monograficzne wydania specjalne

Elektronik lipiec 2020

Elektronik

Magazyn elektroniki profesjonalnej

Raspberry Pi 2015

Raspberry Pi

Wykorzystaj wszystkie możliwości wyjątkowego minikomputera

Świat Radio lipiec 2020

Świat Radio

Magazyn użytkowników eteru

APA - Automatyka Podzespoły Aplikacje lipiec 2020

APA - Automatyka Podzespoły Aplikacje

Technika i rynek systemów automatyki

Elektronika Praktyczna lipiec 2020

Elektronika Praktyczna

Międzynarodowy magazyn elektroników konstruktorów

Praktyczny Kurs Elektroniki 2018

Praktyczny Kurs Elektroniki

24 pasjonujące projekty elektroniczne

Elektronika dla Wszystkich lipiec 2020

Elektronika dla Wszystkich

Interesująca elektronika dla pasjonatów