Ogólna charakterystyka technologii muzyczno-komputerowych. Streszczenie: Technologie informacyjne w muzyce

Postanowiłem opublikować streszczenie przebiegu wykładów prowadzonych przez Andrieja Smirnowa w Centrum Theremin przy Konserwatorium pod hasłem „Muzyka i technologia”. Wiek XX rozpatrywany jest zarówno z punktu widzenia historii sztuki, jak iz punktu widzenia postępu technicznego. Wszystkie zajęcia podzielone są według tej samej zasady – koncepcji estetycznych oraz podstawowych informacji fizycznych i technicznych. Oprócz tego oczywiście przykłady muzyczne i praktyka posługiwania się instrumentami elektronicznymi oraz związanym z nimi oprogramowaniem. Program jest bardzo obszerny i przewidziany jest na rok cotygodniowych zajęć. Przedstawiłem tylko główne punkty w bardzo zwięzłej, niemalże tezowej formie, ponieważ każdy temat zawiera ogromną ilość materiału, którego nie jestem w stanie usystematyzować. Mam nadzieję, że znaczna jego część pojawi się wkrótce na serwerze Theremin Center. Tymczasem proponuję zapoznać się z tym, co sam najbardziej zapamiętałem.

PSYCHOAKUSTYKA

Od razu zrobię rezerwację - ten temat nie ma nic wspólnego z eksperymentami z ultra/infradźwiękami, naciskiem na podświadomość i innymi ekstremalnymi eksperymentami - chodzi tylko o fizyczną budowę aparatu słuchowego i zasady jego interakcji z człowiekiem wyższy układ nerwowy. Nie będę rozwodził się nad strukturą wszystkich trzech części ucha, chociaż jest to bardzo interesujące. Szczególnie procesy zachodzące w ślimaku - okazuje się, że na powierzchni błony znajdującej się w jego wnętrzu dźwięk ma postać fali stojącej, przez co występuje bezwładność słuchowa. Pamiętaj - jeśli słuchasz muzyki głośno, wydaje się, że głośność z czasem maleje. Jeśli wyłączysz głośną muzykę, zatrzymasz ją, a następnie włączysz ponownie, w pierwszych sekundach będzie ona bardziej uderzać w twoje uszy niż przed jej wyłączeniem. Okazuje się, że przewód słuchowy zewnętrzny jest rezonatorem dostrojonym do określonej częstotliwości - gdzieś w okolicach 2,5-3,5 kHz. Dlatego przy średnich częstotliwościach pojawiają się dźwięki, które swędzą - wchodzą w rezonans. Inna częstotliwość rezonansowa to 10 kHz. Czułość ucha ma oczywiście częstotliwość o charakterystyce logarytmicznej. Głośność też. Wzięli cechy, wybierając spośród 1000 18-letnich chłopców trzech z najlepszymi plotkami. Dlatego, aby regulacja głośności we wzmacniaczu była płynna, należy ją zmieniać wykładniczo. Nie wiedziałem tego! Za pomocą prostego generatora przebiegów sinusoidalnych, takiego jak ten w SoundForge, możesz sprawdzić swój słuch. Zadanie jest następujące: określić, z ilu okresów sygnału słuch jest w stanie rozpoznać wysokość dźwięku? Teoretycy mówią, że gdzieś w 5-7 okresach. Okazuje się jednak, że niektórym wystarczą 3 okresy. „Odgadłem melodię” z 5 tercji. Nawiasem mówiąc, wszystkie badania potwierdziły - pod względem fizjologicznym wszyscy ludzie mają równe szanse na aparaty słuchowe. O tym, który z nich ma najlepsze ucho do muzyki, decyduje poziom zdolności analitycznych mózgu.

DŹWIĘK PRZESTRZENNY

Lokalizacja źródeł dźwięku jest bardzo interesującą cechą ludzkiego słuchu, która daje człowiekowi znacznie więcej w zakresie orientacji w przestrzeni niż, powiedzmy, wzroku. Ogromną rolę odgrywa w tym budowa małżowiny usznej – mimo że jest różna dla wszystkich ludzi, to właśnie ona zapewnia dość dużą dokładność w określaniu lokalizacji źródeł. W płaszczyźnie poziomej najlepiej potrafimy naprawić źródło - błąd to tylko 2 stopnie z przodu, 7-8 z tyłu. A po bokach jest tak zwany stożek niepewności (sferyczny wycinek o kącie bryłowym 30 stopni), w którym błąd wzrasta do 10-12 stopni. W płaszczyźnie pionowej błąd jest średnio wyższy - 15-17 stopni. Oczywiście cechy te wskazują, że słuch działa w ścisłej interakcji z innymi zmysłami, a także podlega stereotypom (na przykład fałszywej zależności między wysokością dźwięku a lokalizacją jego źródła). Interesująca jest również zależność lokalizacji od częstotliwości dźwięku. Znając liniowe wymiary głowy (średnio 20 na 25 cm) i prędkość dźwięku (340 m/s) możemy obliczyć, że przy częstotliwości 2,5 kHz dźwięk dotrze do jednego ucha okres później niż do drugiego . A przy częstotliwości 1,2 kHz opóźnienie wyniesie pół okresu. W związku z tym wszystkie dźwięki o częstotliwości mniejszej niż 1,2 kHz będą lokalizowane przez przesunięcie fazowe w obrębie półcyklu. Dla częstotliwości od 1,2 do 2,5 kHz przesunięcie fazowe nie działa, ponieważ mózg nie rozumie - czy wyprzedzają fazę tego okresu, czy za poprzednią. Ale z drugiej strony dla nich (podobnie jak dla innych wysokich częstotliwości) działa lokalizacja częstotliwości - dla nich przeszkodą jest głowa (tzw. cień akustyczny), czyli zachodzi zjawisko dyfrakcji, w wyniku którego słyszymy zarówno falę bezpośrednią, jak i odbitą i porównując ich intensywność określamy lokalizację źródła. A niskie częstotliwości, których długość fali jest większa niż odległość między uszami (tj. Mniejsza niż 150 Hz), w ogóle nie są zlokalizowane (dlatego emiter niskiej częstotliwości, tak zwany subwoofer, jest tylko jeden i jest zlokalizowana w dowolnym miejscu). Dobrze znany system Dolby Surround jest zbudowany z uwzględnieniem tych schematów - dwa promienniki z przodu, wysokotonowe z tyłu oraz subwoofer. Stosunkowo nowy system I-Max stosowany jest w niektórych kinach, w których pierścień z przymocowanymi do niego głośnikami zakładany jest na głowę widza w pewnej ustalonej odległości od uszu, co nie daje mu możliwości zmiany dźwięku panoramę, obracając głowę, podczas gdy film wyświetlany jest na ultraszerokim (prawie półokrągłym) ekranie. Centrum Theremin ma Maca z oktofoniczną kartą dźwiękową i 8-kanałowym DAT, ale głośniki nie zostały jeszcze zmontowane, więc egzemplarze okto- i kwadrofoniczne trzeba odsłuchać w normalnych warunkach.

ANALOGOWA SYNTEZA I SPEKTRA

Historia syntezatorów analogowych sięga czasów pojawienia się urządzeń elektrycznych. Na początku były instrumenty mechaniczne, w szczególności pianola, która była bardzo popularna wśród futurystów (fortepian mechaniczny, prototyp sekwencera - dane zapisywane były na szeroko dziurkowanej taśmie, którą też nam pokazywano) . Niezapomniane dzieła futurystów - "Serenata" i "Choral" Russolo, a także duży zestaw jego "intonarumori" - oddzielnie szumowe instrumenty membranowe - to klasyka muzyki elektroakustycznej. Wyróżnia się pierwszy oficjalnie uznany instrument elektroniczny, theremin Lwa Teremina, jedyny, który łączy elektroniczne brzmienie i grę na żywo. Dziwaczne instrumenty o jeszcze dziwniejszych nazwach pojawiały się jeden po drugim. Na przykład mel lotron (instrument klawiszowy, którego każdy klawisz odpowiadał zapętlonemu filmowi z nagraniem jakiegoś pięknego dźwięku - chóru lub tutti skrzypiec). Obecność silnika ze skrzynią biegów umożliwiła zmianę prędkości napędu taśmowego, co dało efekt podobny do zasady działania samplera (nawiasem mówiąc, nasi ludzie oferowali podobną technologię jeszcze przed nabyciem magnetofonu w 1935 r. - na kliszy. Jak zawsze zostało to zignorowane, a zatem patent otrzymany przez Amerykanów). Zainteresowanie syntezatorami mowy, voderem i vocoderem, sięga tego samego okresu.Pierwszy model wokodera, zmontowany przez Bowda w 1935 roku, składał się z klawiatury, za pomocą której lewą ręką wydobywano samogłoski (widmo niskich częstotliwości), oraz syczących spółgłosek (wysoka częstotliwość) prawą ręką. Do artykulacji dźwięcznych spółgłosek, takich jak v, g, z, służył pedał sterujący „mikserem” generatora tonów i szumów. Spółgłoski bezdźwięczne, takie jak p, k, t, wyrażano pauzami kontrolowanymi za pomocą pierścienia na palcu wskazującym. Okazuje się, że ludzka mowa (NIE głos!) bardzo łatwo poddaje się syntezie. Max Matthews, korzystając ze swojego programu MUSIC II (1957), nagrał piosenkę z syntetyzowanym wokalem, którą następnie kupiło MGM do jakiegoś filmu, w którym śpiewał ją robot. Również całkowicie elementarnym, podręcznikowym przykładem syntezy komputerowej jest dźwięk śpiewu ptaków. Trutonium to pierwszy instrument polifoniczny wynaleziony w USA w 1928 roku. Oprócz klawiatury Trutonium posiadało również gryf, który umożliwiał wykonywanie glissando w dużym zakresie. Było też wiele barw, które wraz z pojawieniem się tranzystora w 1937 roku, późniejsze modele (te ostatnie pochodzą z lat 70.) były już tworzone przy użyciu syntezy analogowej. Nawiasem mówiąc, Robert Moog wcale nie był wynalazcą syntezatora analogowego, jak niektórzy błędnie sądzą - był Donaldem Buckla. Moog był po prostu pierwszym, który skomercjalizował je i zaoferował jako instrumenty rockowo-popowe.

Jak wiesz, synteza analogowa jest podzielona na dwa duże obszary. Pierwszy rodzaj syntezy analogowej jest addytywny, to znaczy polega na kolejnym nakładaniu się na siebie najprostszych sinusoid, czyli harmonicznych w paśmie widmowym. Bardzo trudna, żmudna metoda, która oprócz ogromnej cierpliwości wymaga również dużo czasu i środków. Utwór Jean-Claude'a Risseta "Suite for a little boy" (nie mogę ręczyć za pierwsze słowo w tytule, ale mały chłopiec to nazwa bomby atomowej zrzuconej na Nagasaki) był nagrywany przez około rok ze względu na niską szybkość obliczeń komputerowych, które posłużyły do ​​modelowania dźwięku metodą syntezy addytywnej. Bardzo zabawny trzyczęściowy kawałek, przypominający trochę Hafler Trio z wstawkami rytmicznymi a la Kraftwerk. To właśnie z widmami wiąże się większość zjawisk akustycznych, w szczególności fakt, że gdy dodamy do siebie dwie sinusoidy o częstotliwościach, które mają najmniejszą wspólną wielokrotność, powstają nieistniejące dźwięki, które są słyszalne w oddalonych od siebie punktach przestrzeni o odpowiadającą mu wartość. Interesujący jest również efekt nieskończonego wzrostu tonu przy okresowym powtarzaniu glis sando (jako przykład zupełnie nieludzki utwór Jamesa Tenneya, który wykorzystuje pierwszy program komputerowy do syntezy dźwięku stworzony przez Maxa Matthewsa pod koniec lat 50. ). Nawiasem mówiąc, byłem zaskoczony, gdy dowiedziałem się, że pierwszy syntezator jest zasadniczo organem - wykorzystuje syntezę addytywną do generowania dźwięku o różnych barwach. Druga metoda syntezy jest subtraktywna. Jak sama nazwa wskazuje, jest z natury przeciwieństwem addytywnego i polega na tym, że wszystko, co zbędne jest po prostu wycinane (filtrowane) z szerokopasmowego białego szumu, dzięki czemu można natychmiast uzyskać pożądane widmo. Przy okazji ważna uwaga – okazuje się, że o barwie dźwięku nie decyduje wcale kształt fali, jak mi się wcześniej wydawało, a kształt widma. Dlatego synteza subtraktywna od razu zyskała pozycję lidera w pierwszych modelach syntezatorów analogowych i utrzymała ją do czasu wynalezienia przez Johna Chowninga syntezy z modulacją częstotliwości (synteza FM), która polega na zmianie częstotliwości sygnału dźwiękowego w wyniku jednoczesnego wybrzmiewania dwóch lub więcej generatorów sygnału o różne częstotliwości ułożone w określony sposób.

CYFROWA SYNTEZA

Za początek ery syntezy cyfrowej tradycyjnie uważa się początek lat 80. O czym to było? Trzy powody, dla których technologia analogowa była niewygodna: po pierwsze głośność i niekonstrukcyjność (syntezator Mooga był wielkości szafki i miał kilka oscylatorów i filtrów. Jeśli trzeba było przeprowadzić dalszą obróbkę otrzymanego dźwięku, trzeba było kupić inny drogi moduł). Drugi to niedogodności w obsłudze. Każdy dźwięk był przedstawiany jako ogromny system połączeń między gniazdami, którego złożenie wymagało wiele czasu i nerwów. A trzecia to niestabilność sprzętu elektrycznego, głównie temperatury. Dzięki temu dźwięki zmieniły się w coś bardzo odbiegającego od oryginału. Zaproponowane przez twórców rozwiązanie - podgrzanie całego układu do 50-80 stopni, doprowadziło do szybkiego zużycia części, ale zostało przyjęte do eksploatacji jako jedyne możliwe. Pierwszy syntezator cyfrowy został zaprojektowany przez dwóch amerykańskich techników (programistę i inżyniera - nie pamiętam nazwisk) oraz kompozytora Johna Appletona. Nazywał się Synclavier i został wprowadzony do obiegu w 1981 roku. Nawiasem mówiąc, John Appleton jest raczej tajemniczą osobą. Nikt nie brał go za poważnego kompozytora elektroakustycznego, bo. jego muzyka zawsze balansowała na granicy atonalnej, hałaśliwej i sugestywnie wzruszającej, melodyjnej kompozycji. Nie przeszkodziło mu to jednak zasiadać w jury najbardziej wpływowego konkursu muzyki elektroakustycznej w Bourges (jako pionier we wdrażaniu systemów syntezy cyfrowej). Mamy oczywiście podobny przypadek - Eduard Artemyev. W krótkim czasie Synclavier miał konkurenta - Fairlight. Oba instrumenty były zasadniczo samplerami cyfrowymi (Synclavier 100%, Fairlight 50%). W ten sam sposób, w jaki kupiono od Mooga nazwisko (Moog nie mógł pod nim publikować swoich prac), Hollywood kupił Synclavier i firmę, która go wyprodukowała (wszystkie ścieżki dźwiękowe do amerykańskich filmów z orkiestrą w napisach końcowych zostały faktycznie wykonane na Synclavier ). Ze względu na niewielkie rozmiary i wygodną obsługę odniosły duży sukces i są produkowane do dziś (oczywiście już bardziej jako relikt). W syntezie komputerowej prym zawsze prowadził Macintosh, który został specjalnie zaprojektowany do pracy z dźwiękiem i grafiką, w przeciwieństwie do PC. Później opatentowano jego rozszerzenie - system STEP, który mimo bankructwa projektu w 1993 roku jest nadal używany w centrach komputerowych IRCAM i CCRMA. Atari 1040 stanowił niewielką konkurencję cenową dla komputerów Mac, ale rynek oprogramowania dla tego systemu był bliski zeru. Tak samo było z Amigą, chociaż Amiga wciąż jest w fazie rozwoju i są fani tego komputera. Jako ilustrację pierwszych doświadczeń z muzyką synchroniczną posłuchaliśmy kilku utworów Appletona (bardzo podobał mi się „Brush Cany on”, choć szczerze mówiąc sentymentalny nastrój utrudniał skupienie się na barwie dźwięku). I jeszcze parę rzeczy - duety żywych instrumentów i ich synchroniczne kopie. Wszyscy starali się ze słuchu określić, ile instrumentów grało jednocześnie.

MUZYKA ALGORYTMICZNA

Rozpoczynając rozmowę o muzyce algorytmicznej, należy zauważyć, że idea ta jest stara jak świat – już w 1206 roku Guido Marzano zaproponował, aby każdej samogłosce przeciwstawić określoną wysokość i w ten sposób tworzyć muzykę. Mozart wpadł na pomysł wykorzystania kostek do zautomatyzowania pisania menuetów: każda kombinacja kostek odpowiadała liczbie na liście typowych taktów menueta, których kompozytor naliczył około 10 000! Menuet o długości 50 batonów - 50 rzutów kostką. To samo zaproponowano później, aby zrobić z walcami. Pierwsze poważne próby zajęcia się muzyką algorytmiczną sięgają oczywiście czasów pojawienia się komputerów, których moc wystarczała do przetwarzania najprostszych algorytmów. Na Uniwersytecie Illinois taki komputer pojawił się w 1953 roku, miał niesamowicie dużą ilość pamięci i - 1 kilobajt (szafy pamięci zajmowały całe pomieszczenie). Jednocześnie trzeba zrozumieć, że komputer nie tworzył niczego, co przypominałoby muzykę – były to po prostu kolumny liczb, które kompozytor musiał przerobić na partyturę, a dopiero potem przekazać muzykowi. Oczywiście takie podejście interesowało przede wszystkim kompozytorów stosujących techniki seryjne, więc przez jakiś czas muzyka serialna i algorytmiczna szły ręka w rękę. Serie można by tworzyć z tonacji, barw, czasów trwania itp. Cóż może być prostszego niż napisanie programu, który wytwarza dźwięki nie powtarzające się (powtórzenia w serii są zabronione, podobnie jak współbrzmienia interwałowe - tercje, kwinty). Za twórców muzyki algorytmicznej uważa się kilku kompozytorów, z których najbardziej znani to oczywiście Pierre Boulez i Janis Xenakis. Wielu z nich pisało własne programy, ale tylko pod konkretny utwór i korzystało z nich, jak również z instrumentów. Wyróżnia się tylko Xenakis, którego SMP (stochastyczny program muzyczny) był używany przez innych muzyków. Mówiono, że na koncercie w Moskwie Xenakis wymachiwał swoim Talmudem formułami na znak powitania, z którym nigdy się nie rozstawał, bojąc się, że ktoś go zawładnie i stworzy coś ważniejszego niż on sam… W muzyce algorytmicznej jako punkt startowy, często stosuje się fluktuację pewnej wartości w pewnym przedziale zgodnie z prawem losowym. Teraz, gdy technologia szeregowa nie jest już modna, algorytmy są wykorzystywane na przykład do syntezy granularnej. Oznacza to, że te same dźwięki o mikroskopijnym czasie trwania, następujące po sobie z dużą częstotliwością (zwane granulkami), są w stanie uformować nową barwę. Liczba granulek wynosi od 100 do 2500 na sekundę. Jako przykład możemy polecić kompozycje Barry'ego Truaxa "Wave Edge" i "River Run", których konceptem jest spojrzenie na otaczający świat oczami ziarnka piasku na dnie rzeki. Zostały one nagrane w 1986 roku i są zbliżone strukturą do industrialnej muzyki trzeciej fali – Cranioclast, Illusion Of Safety itp. Paul Lansky (jeden z pionierów muzyki algorytmicznej, ostatnio pisze coś w rodzaju alternatywnej muzyki pop) zrealizowany algorytm przekształcania mowy angielskiej i chińskiej. Oznacza to, że program generował dźwięk, kontrolowany przez intonację głosu i artykulację mowy.

W Theremin Center jest ciekawy film na temat muzyki algorytmicznej, a dokładniej na temat tej części jej ewolucji, która nazywa się syntezą fraktalną. W naszym kraju jakoś utarło się przekonanie, że wizualna jest realistyczna, a muzyczna abstrakcyjna, więc algorytmy fraktalne w muzyce, które do niedawna bardzo lubili wielu, nie są wyraźnie śledzone w samym dźwięku. Cóż, niech go Bóg błogosławi, grafika komputerowa to też zabawny widok. Wynalazcami geometrii fraktalnej są Benoit Mandelbrot (nie mylić z niemiecką grupą o tej samej nazwie z Ars Moriendi!) i Lorenz, którzy zaproponowali dwa różne sposoby wyjaśnienia natury fraktali. Na wszelki wypadek wyjaśnię, że fraktal (od "ułamek" - część) jest strukturą rekurencyjną, której każda część zawiera informacje o postaci ogólnej. Mandelbrot zaproponował rozważenie dowolnej formacji naturalnej (chmur, gór, roślin), której nie można opisać w klasycznej teorii geometrii w ramach geometrii fraktalnej. W wywiadzie wziął główkę kalafiora, odłamał z niej kawałek i powiedział, że wygląda jak główka kapusty, zredukowana forma e. Potem zrobił to samo z fragmentem i tak dalej. Powierzchnia gór, bez względu na to, jak powiększymy obraz, zawsze będzie miała podobną nierówną powierzchnię ze szczytami i dolinami. Klasycznym tego przykładem jest próba zmierzenia długości linii brzegowej Wielkiej Brytanii. Wraz ze zmniejszaniem się długości wzorca użytego do pomiaru okazuje się, że długość stale rośnie, tworząc szereg niezbieżny! Lorentz, słynny matematyk, zaproponował rozważenie zwykłego wahadła jako fizycznego modelu fraktala, ale nie w zwykłym polu grawitacyjnym, ale w polu trzech magnesów równo oddalonych od jego punktu mocowania. Okazało się, że na pierwszy rzut oka przypadkowe wyhamowanie wahadła w pobliżu jednego z magnesów w rzeczywistości zależy od początkowego położenia wahadła. Kiedy za pomocą komputera udało się eksperymentalnie znaleźć tę zależność, okazało się, że pole (funkcja dwuwymiarowa) pomalowane trzema kolorami odpowiadającymi magnesom jest fraktalem oszałamiającej urody! Dlaczego ostatnio zapomniano o syntezie fraktali, nie rozumiem. Najwyraźniej, jak wszystko inne, musi zostać na nowo odkryta przez kompozytorów przyszłości!

KONCEPTALIŚCI

Każdy z tych kompozytorów jest wyjątkowy sam w sobie, nie tylko jako osoba twórcza, ale także jako wynalazca własnego kierunku poszukiwań w muzyce, tak mocno związanego z jego doświadczeniem życiowym i światopoglądem, że rozważanie go poza biografią wydaje się zupełnie pozbawione sensu. konkretnej osoby.

Alwyna Luciera- amerykański kompozytor o francuskim nazwisku, jeden z najwybitniejszych innowatorów muzyki elektroakustycznej, ściśle współpracujący z Martinem Tetro i innymi kompozytorami związanymi z awangardowym polem jazzowym. Wiele jego utworów zostało wznowionych na płytach CD przez Les Ambiances Magnetiques i Lovely Music. Najciekawszy w swojej koncepcji i realizacji jest oczywiście rzecz o nazwie „Siedzę w pokoju”, polegająca na wielokrotnym nagraniu jednej pojedynczej frazy. W jednym pokoju zainstalowano mikrofon, a w drugim magnetofon. Najpierw Lucier nagrał swój głos , potem zamiast tego odtworzył nagranie i tak dalej, około 40 razy. Fraza brzmiała mniej więcej tak: „Siedzę w pokoju innym niż ten, w którym teraz jesteś i nagrywam dźwięki mojej mowy. Potem odtwarzam je i nagrywam ponownie, i będę to robić, dopóki częstotliwości rezonansowe samego pomieszczenia całkowicie nie zniszczą brzmienia mojego głosu. Nie robię tego, aby zilustrować dobrze znany fakt fizyczny, jestem tam tylko po to, aby posłuchać tych bardzo rezonansowych częstotliwości.” I rzeczywiście, dźwięk został zniekształcony i przekształcony, aż stał się płynnie wibrujący, stłumiony, ale ostry buczenie wyartykułowane rytmem głosu, prawie jak Tajemne Urządzenie!

Jan Kuzyn Kompozytor z Nowej Zelandii. Ogólnie rzecz biorąc, należy zauważyć, że ta część świata, najmniej opanowana przez cywilizację, jest jednak bardzo bogata w utalentowanych kompozytorów elektroakustycznych, o których niewiele wiadomo w Rosji, a nawet w Europie. Australia i Nowa Zelandia budują między sobą relacje w podobny sposób jak Rosja i Ukraina, czyli konkurują ze sobą we wszystkim! John Cousins ​​nie jest programistą, nie jest inżynierem i przez długi czas uczył muzyki w zwykłym konserwatorium na Uniwersytecie w Wellington. Ale w ciągu ostatnich 15 lat całkowicie porzucił tradycyjne metody i woli nie uczyć studentów kompozycji, ale próbować dostrzec, utrwalić, utrwalić i rozwinąć indywidualne postrzeganie muzyki w każdym z nich. Studenci pierwszych dwóch lat (którzy wychodzą prosto z liceum, a nie studiów) są zdani na siebie, w tym czasie staje się jasne, kto ile jest wart i jak powinien być traktowany w przyszłości. Osobiste doświadczenie muzyczne Cousinsa jest bardzo specyficzne - nie wywodzi się z teorii, umiejętności i trendów, ale z własnych odczuć wynikających z obcowania z naturą. Na przykład przyjeżdża na bezludne wybrzeże oceanu i mieszka tam przez dwa miesiące, nie rozstając się z magnetofonem. Nawet chodzenie za własnym cieniem może przynieść niezwykłe doznania – na przykład indywidualizacja napotkanego na drodze cienia kamienia, czyli ustawienie go w nienaturalnej pozycji pionowej. Generalnie sama zasada dziewictwa przyrody, która z każdym nowym przypływem/przypływem zmienia krajobraz nie do poznania, przybliża nas do realizacji naszej przynależności/celu. John przeciągał kamienie z miejsca, w którym ocean je przenosił, do innego i słuchał, jak otaczający go świat reaguje na jego inwazję. Oczywiście takie eksperymenty wymagają całkowitej koncentracji na swoim wewnętrznym świecie. Zwieńczeniem eksperymentów Kuzynów była budowa tzw. harfy eolskie, czyli konstrukcje ze stałą struną i rezonatorem. Ustawiona na brzegu oceanu harfa eolska pod wpływem wiatru zaczyna brzmieć - niesamowity śpiew. Kuzyni zbudowali około 50 takich harf, w których wysokość (naciąg strun) regulowano ciężarkami. A w największej harfie, oprócz polifonicznej (15 metrów wysokości), powiesił się jak ładunek! Prawdziwie mistyczny obraz - czyste niebo, jasne słońce, bezludny brzeg, zespół harf eolskich i związany człowiek kołyszący się na wietrze do niekończącego się śpiewu wiatru!

Paweł Dolden- mieszkający w Kanadzie, ale nieposiadający obywatelstwa kompozytor, swego czasu był ulubieńcem międzynarodowych konkursów w Bourges. W szczególności jego kompozycja „Under The Walls Of Jericho” zdobyła pierwsze miejsce w 1990 roku. Z pozoru najgłośniejszy w elektroakustyce, jednak trudno to z nim utożsamić, gdyż jedynym rodzajem manipulacji dźwiękiem jest transponowanie brzmienia instrumentów dętych, których jest około 300 - zebranych z całego świata, brzmią one jednocześnie na 330 kanały (pozostałe 30 przypada na perkusję) o temperamencie 48 kroków na oktawę. Prawie akustyczna muzyka, ale z niesamowicie silnym uderzeniem. Zmuszanie, napięcie, udręka w każdej chwili!

ROLA ROSJI W HISTORII MUZYKI ELEKTRONICZNEJ

W 1995 roku powstał film o pierwszych Rosjanach eksperymentujących z dźwiękiem elektronicznym, zebrany z nagrań archiwalnych. Czytałem już o jednym z nich, Arseniju Awramowie. Ale przede wszystkim uderzyło mnie to, że okazuje się, że ojczyzną samplera jest też Rosja! Okazuje się, że niejaki Jankowski na początku lat 30. (jeszcze przed pojawieniem się zapisu magnetycznego w 35 r.) z powodzeniem zastosował graficzną reprezentację dźwięku (w szczególności muzyki orkiestrowej) do rozkładu na harmoniczne za pomocą transformaty Fouriera, a następnie zsyntetyzował go w dowolne częstotliwości dźwięku. Awramow osobiście zwrócił się do Łunaczarskiego z propozycją zniszczenia lub przerobienia wszystkich instrumentów klawiszowych z jednakowym temperamentem, ponieważ jego zdaniem wypaczają one właściwy obraz odbioru muzyki. Na przykład Chopina należało wykonać zupełnie inaczej, a nie tak, jak sugerowały jego zapiski – w jego czasach po prostu nie było to technicznie wykonalne. Oczywiście odmówiono mu, ale nie odmówił swoich eksperymentów. Chwyciłem pomysły i instrumenty w garść i pojechałem do Szwajcarii na międzynarodowy festiwal muzyczny, gdzie zająłem pierwsze miejsce! Gwałtowny rozwój idei muzycznych w Rosji Sowieckiej odbywał się na fali entuzjazmu dla konstruktywizmu, a nawet miał pewne wsparcie ze strony państwa. W szczególności powstał HYMN (Państwowy Instytut Nauk Muzycznych), z którym związane są nazwiska wielu rosyjskich badaczy dźwięku elektronicznego. W połowie XX wieku pojawiło się wiele opracowań, ale z oczywistych względów historycznych nie dano im ruchu, więc większość z nich pozostała na papierze. Najbliżej rozpoznania były ekwodiny Wołodina (dwugłosowy syntezator analogowy, który pojawił się pod koniec lat 30.). Volodin nie był muzykiem i przy tworzeniu swoich instrumentów korzystał z rad znajomych. W ogóle realizował zupełnie inny cel niż tworzenie muzyki, a mianowicie analizę poprzez syntezę. To znaczy, zajmując się psychoakustyką, potrzebował materiału źródłowego do eksperymentów - różnych dźwięków, na których można było badać cechy ludzkiej percepcji. Volodin pracował w skrzynce pocztowej (chyba nazywała się TsNIIARTI - automatyzacja dla przemysłu obronnego). Okazuje się, że wszystkie wynalazki w muzyce elektronicznej, których odsetek jest bardzo wysoki w porównaniu z innymi krajami, pojawiły się w Rosji jako produkt uboczny badań wojskowych. I w rezultacie – żaden z wynalazków nie mógł czekać na wykorzystanie zgodnie z jego przeznaczeniem – twórcy po prostu nie mieli dość zdrowia, aby doprowadzić go do tego etapu (jedynym wyjątkiem był ANS – wielu kompozytorów studiowało i nagrywało utwory na to powstało studio muzyki elektronicznej w Muzeum Skriabina - obiecują nas tam zabrać). A więc - okazuje się, że nasze cierpienie z Wami z magazynem to nie tylko pech czy niesprawiedliwość, ale echo starej, dobrej tradycji. Volodin zmarł w laboratorium w 1982 roku. Jego dziewiąty Aquodyne prawie wszedł do produkcji - to był prawie sukces! Legendarny syntezator ANS, zbudowany przez Jewgienija Murzina pod koniec lat 50. i nazwany na cześć inicjałów Skriabina, a także studio muzyki elektronicznej w Muzeum Skriabina zawsze cieszyły się dużym zainteresowaniem kompozytorów różnych pokoleń. Istniejące w jednym egzemplarzu, to wyjątkowe urządzenie zostało specjalnie zmontowane na międzynarodową wystawę we Włoszech (przeznaczono na to wymaganą kwotę pieniędzy), a po triumfie władz po prostu o nim zapomnieli. W 1982 roku firma fonograficzna Melodiya, jako największy ze współzałożycieli studia, zgłosiła roszczenie do ANS i umieściła je na kilka lat w zawilgoconej piwnicy, w wyniku czego popadło w opłakany stan. Obecnie częściowo odrestaurowany (niektóre barwy bezpowrotnie zaginęły) i znajduje się na Wydziale Dziennikarstwa Moskiewskiego Uniwersytetu Państwowego. W ANS jako barwę stosowano płyty (bardzo podobne do płyt CD) z koncentrycznymi ścieżkami wypełnionymi ryzykiem (coś koło 140 kółek, jedna płyta na dwie oktawy, czyli o temperamencie 1/12 tonu!!) szkło pokryte czarnym mastyksem, dowolnie w układzie współrzędnych częstotliwość-czas. Robert Moog, który odwiedził Centrum Theremin, był bardzo zainspirowany ANS i przyglądał mu się przez długi czas. Wszyscy znani artyści awangardowi tamtych czasów próbowali pracować w ANS - Schnittke, Denisov, Gubaidulina... Słuchaliśmy sztuki Schnittkego "Flow" - bardzo ciekawej, głębokiej ambient-noisowej muzyki, która jakoś przypominała mi Maeror Tri. Nawiasem mówiąc, po nagraniu jednej rzeczy dla ANS wielu odmówiło elektroniki. W szczególności Schnittke motywował to faktem, że w instrumentach akustycznych interwał jest ścieżką, aw instrumentach elektronicznych odległością. Jednak Schnittke później, jak wiadomo, napisał dużo muzyki elektronicznej do filmów, ale nigdy nie traktował tego poważnie.

TECHNOLOGIA MUZYCZNA

Oczywiście można długo argumentować, że przy nadmiernym entuzjazmie dla teorii syntezy dźwięku zaciera się granica między sztuką a nauką. Przeciwnicy podejścia naukowego tłumaczą swoje stanowisko niezgodą na naśladownictwo podejścia twórczego za pomocą niespotykanych dotąd, a więc początkowo niezrozumiałych metod naukowych. Oczywiście tylko nielicznym udaje się zakwalifikować swoją działalność jako sztukę, cała reszta to asystenci laboratoryjni. Ta pozycja w dużej mierze odzwierciedla problem konfrontacji w mojej duszy dwóch bytów: jako słuchacza najważniejszy jest dla mnie impuls twórczy, który może rozwinąć percepcję estetyczną i sprawić, że doznaję podniecenia, uczucia, ekstazy itp. Ale jako dziennikarz muzyczny muszę znać historię, konceptologię i teorię technologii elektronicznej w zastosowaniu do muzyki, aby przynajmniej uniknąć amatorstwa i haniebnych błędów w publikacjach. A w pierwszym i drugim przypadku trzeba iść na datki. Dla słuchacza kuchnia muzyczna - bez względu na to, z czego się składa, czy to z zapisu nutowego i wyczerpujących prób, czy też z formuł fizycznych, sinusoid i splotów drutów - jest zejściem z nieba na ziemię, odkryciem tajemnicy tworzenia arcydzieła. Jednocześnie nie każdy dziennikarz może zmusić się do słuchania tej samej frazy przez 45 minut lub słuchania monotonnego szumu przez 12 minut.

Zbliżenie nauki i sztuki tylko na pierwszy rzut oka wydaje się luką w przeciętności. To właśnie genialna intuicja naukowca-fizyka pozwoliła Jean-Claude Rissetowi uzyskać cudowną i złożoną barwę, którą nazwał „elektronicznymi chmurami cirrus”. Gdyby był tylko kompozytorem, zajęłoby mu to lata ślepych poszukiwań i pustych kalkulacji. Pomimo tego, że możemy być zdumieni dziełem stworzonym dzięki niewiarygodnym wysiłkom w latach 50., nadal uwzględniamy warunki pracy. Ale co roku rosną wymagania jakościowe. Mam na myśli nie tylko jakość dźwięku, ale także jakość wszystkiego innego. Przeciętnemu muzykowi coraz trudniej zrobić coś wartościowego przy „minimum środków”. Im wyższy poziom rozwoju technologii, tym łatwiej dostrzec przeciętność. I tym bardziej staje się - być może rozwiązanie tego paradoksu nie zostało jeszcze rozwiązane.

Kolejnym minusem skomplikowania technologii jest wzrost stopnia abstrakcji muzyki elektronicznej, co komplikuje i rozgałęzia procesy percepcji. Ci, których przede wszystkim interesuje to, co muzyk myślał podczas swojej pracy, co nim kierowało, co go inspirowało, powinni zauważyć, że kompozytora i słuchacza nie zawsze można uważać za dwa równe i kompatybilne ogniwa jednej sieci komunikacyjnej. Jeśli przeanalizujemy akt ich interakcji z punktu widzenia psychologii formalnej (czyli po prostu nie zapominajmy, że są to przede wszystkim ludzie, a potem wszystko inne), to okazuje się, że złożoność, o której mówimy, jest przede wszystkim z powodu niespójności ich osobistych doświadczeń. Oznacza to, że jeśli doświadczenie muzyka pochłania jakąś część twojego osobistego doświadczenia, masz tendencję do ufania mu. Jeśli jest odwrotnie, może lepiej nie znać jego motywów. W końcu oprócz czynnika ludzkiego w procesie twórczym ważna jest rola nieświadomości, pewnej siły wyższej (która, moim zdaniem, również podlega badaniu, ale jest znacznie trudniejsza). Być może jest to bardzo prymitywne wyjaśnienie, ale zostało przeze mnie wielokrotnie zweryfikowane i daje podstawy do wyciągnięcia kilku wniosków na temat mechanizmów percepcji i przewidywalności reakcji. Po pierwsze, mistyfikacja w muzyce jest bardzo ważna. Nic nie jest w stanie bardziej wzbudzić zainteresowania słuchacza niż gruba zasłona tajemnicy. I to jest całkiem naturalne – na sukces muzyków składa się tu wszystko: wrodzona ciekawość, potrzeba niecodziennych doznań, a wokół tego wszystkiego mnóstwo plotek itp. Zdarzyło mi się sto razy, że tak długo chciałem usłyszeć jakiś album i poświęciłem tyle czasu i wysiłku na jego poszukiwanie i zgadywanie, że kiedy w końcu do mnie dotrze, to już mi się podoba z góry. A rozczarowanie, nawet jeśli jest nieuniknione, to i tak nic w porównaniu z radością ze spełnienia marzeń. A przykład odwrotny - ile istnieje albumów nagranych z niebywałym poświęceniem i pod wrażeniem świetnych pomysłów i dzieł, zawierających kilka lat pracy, domagających się uznania ze strony autora w bardzo poważnym podejściu do pracy, ale... zero odzewu w serce słuchacza nie dostało. Po drugie, jakie jest znaczenie kreatywności? Uważam, że akt twórczy można uznać za dokonany, jeśli jest w stanie obudzić w duszy ludzi, do których jest adresowany, bodziec do własnej twórczości. Nieważne jakiego rodzaju - muzyka, plastyka, wreszcie sama refleksja i komunikacja - jednym słowem chęć życia i doskonalenia się. Należy przy tym zauważyć, że ani na temat twórczości, ani na obszary, z którymi się ona wiąże, nie stawia się żadnych konkretnych wymagań. Wszystko powyższe zostało powiedziane przeze mnie wyłącznie z punktu widzenia słuchacza. Dziennikarstwo to zupełnie inna sprawa. Dziennikarstwo muzyczne jest postrzegane przez wielu (i niestety często zasłużenie) jako środek propagandy. Bardzo staram się w swojej dziennikarskiej dziedzinie dawać wiodącą rolę intuicji słuchacza, dlatego też moje materiały konstruowane są w taki sposób, aby skłonić człowieka do zastanowienia się nad stosowanymi obszarami twórczości, z wykorzystaniem muzyki jako elementu kluczowego. Poznaj strukturę świata własnymi uszami.

Dmitrij Wasiliew

Opracowanie metodologiczne „Wykorzystanie technologii muzycznych i komputerowych w działalności dyrektora muzycznego”

Nowoczesna instytucja edukacyjna potrzebuje nauczyciela, który posiada wszystkie możliwości nowoczesnego komputerowego „płótna” dźwiękowego. Dyrektor muzyczny biegły w informatyce na równi z klawiaturą fortepianu potrafi urzec dzieci różnymi formami pracy z repertuarem muzycznym, nie tylko dzięki zdolnościom wokalnym, wiedzy akademickiej, ale także technice komputerowej. Oczywiście zasada techniczna nie powinna tłumić ani nauczyciela, ani ucznia artysty-twórcy z delikatnym uchem muzycznym i nieokiełznaną wyobraźnią.
Nie każdy nauczyciel korzystający w swojej praktyce z gotowych narzędzi multimedialnych jest zadowolony z ich jakości, konstrukcji, zarządzania, poziomu merytorycznego itp. Proces edukacyjny jest wysoce indywidualny, wymagający zróżnicowanego podejścia, uzależnionego od dużej liczby zmiennych.
Dlatego w miarę swobodnie i kreatywnie myślący nauczyciel przedszkolny, dyrektor muzyczny, powinien umieć samodzielnie przygotować materiał multimedialny na zajęcia, wakacje itp.
Wraz z tradycyjnymi instrumentami muzycznymi, na których koncentruje się edukacja muzyczna, upowszechniają się technologie muzyczno-komputerowe (MCT) o szerokim wachlarzu możliwości. Komputer muzyczny staje się nieodzowny w działalności kompozytora, aranżera, projektanta muzycznego, redaktora muzycznego i coraz częściej wykorzystywany jest w nauczaniu. Technologie te otwierają nowe możliwości twórczego eksperymentowania, poszerzania muzycznych horyzontów, artystycznego tezaurusa uczniów, a to sprawia, że ​​nauka ich opanowania jest szczególnie istotna.
Nowe technologie informacyjne ukierunkowane na nowoczesną edukację muzyczną stwarzają warunki do kształcenia postaci muzycznej, która oprócz tradycyjnych dyscyplin muzycznych posiada komputer muzyczny jako nowy instrument muzyczny.
Najważniejszymi obszarami zastosowań i rozwoju ICT są dziś:
MCT w profesjonalnej edukacji muzycznej (jako sposób na poszerzenie możliwości twórczych);
ICT w kształceniu ogólnym (jako jeden ze środków kształcenia);
ICT jako środek rehabilitacji osób niepełnosprawnych;
ICT jako sekcja dyscypliny „Informatyka”, „Informatyka”;
MCT jako nowy kierunek w kształceniu specjalistów technicznych, związany w szczególności z modelowaniem elementów twórczości muzycznej, programowaniem dźwiękowo-brzmieniowym, co prowadzi do powstania nowych twórczych specjalności technicznych.

Zastosowanie MCT w edukacji muzycznej organizacji przedszkolnej rozwiązuje następujące zadania:
1. Znacząco intensyfikują rozwój słuchu muzycznego i myślenia, co wynika z ich intensywnych zdolności uczenia się opartych na integracji logiczno-percepcyjnej form aktywności. Rozumienie elementów języka muzycznego odbywa się za pomocą doznań i reprezentacji wizualnych, co uzupełnia możliwości komunikacji werbalnej. Nietwórcze formy pracy nauczyciela są przenoszone do komputera, co umożliwia demonstrację
2. możliwości ekspresyjne harmonii (przede wszystkim logiki konstruktywnej), obserwuje wzorce morfologii i składni muzycznej, ułatwia nabywanie umiejętności orientacji w płaszczyźnie intonacyjno-semantycznej, słyszenia i rozumienia planu treściowo-figuratywnego, przyczynia się do konwergencji materiału edukacyjnego z praktyką artystyczną, wreszcie wzbogaca barwę słuchu uczniów, ich wyobrażenia o barwnej i wielowymiarowej jakości dźwięku;
3. Muzyczne programy szkoleniowe mogą być szeroko stosowane w przypadkach, gdy wymagane jest intensywne przywracanie umiejętności po dłuższej przerwie w szkoleniu lub gdy konieczne jest szybkie i trwałe ukształtowanie specjalnych umiejętności muzycznych.

WYKORZYSTANIE PROGRAMÓW MULTIMEDIALNYCH W PROCESIE EDUKACYJNYM

Tworząc program multimedialny, trzeba jasno wyobrazić sobie, dla kogo i po co jest tworzony. Treść slajdów informacyjnych może być zestawiona na dowolny temat programu nauczania danego przedmiotu lub mieć charakter rozwojowy dla zajęć lekcyjnych i/lub pozalekcyjnych.
Program multimedialny to połączenie dynamiki z rozsądną ilością przekazywanych informacji. Jest to synteza technologii komputerowych łącząca dźwięk, klipy wideo, informacje, obrazy nieruchome i ruchome. W przeciwieństwie do filmów wideo, do przesłania potrzebują znacznie mniejszej ilości informacji.
Tworzenie programów multimedialnych, projektów telekomunikacyjnych polega na opracowaniu scenariusza, koncepcji, reżyserii, montażu, montażu, udźwiękowieniu (w razie potrzeby).
Aby stworzyć program multimedialny, w pierwszej kolejności opracowywany jest scenariusz i ustalana jest kolejność prezentacji materiału z uwzględnieniem procentowego wykorzystania zakresu tekstowego, wizualnego i dźwiękowego. Jest całkiem oczywiste, że tworzenie programu multimedialnego zawierającego wyłącznie informacje tekstowe jest niepraktyczne. Taki materiał można przygotować w programie Microsoft Word. Podczas wyszukiwania informacji możesz korzystać z linków do kolekcji witryn edukacyjnych, witryn z wyborem obrazów.
Dobierając materiał do programu multimedialnego należy pamiętać, że mówimy o tworzeniu takich informacji, które będą płynąć i dynamicznie rosnąć w miarę postępów ucznia w proponowanym materiale. Jest to szczególnie ważne w przypadku nauki indywidualnej, kiedy użytkownik może się zatrzymać, zapisać najważniejsze dla niego rzeczy, wrócić do wyjaśnienia pojęć i przejść dalej (takie opcje są zapewnione).
Należy pamiętać, że prezentowany materiał jest pojemną prezentacją zgromadzonego materiału, gdzie prezentacja tekstowa jest często zastępowana symbolami, tabelami, schematami, rysunkami, fotografiami, reprodukcjami.
Wybrane wideo i dźwięk do Twojego programu.
Wszystko to zapewnia użytkownikowi najbardziej komfortowe warunki odbioru materiału. Elementy multimedialne tworzą dodatkowe struktury psychologiczne, które przyczyniają się do percepcji i zapamiętywania materiału.
Korzyści płynące z lekcji muzyki z wykorzystaniem prezentacji multimedialnych w programie Power Point:
- wykorzystanie animacji i momentów zaskoczenia sprawia, że ​​proces poznawczy jest ciekawy i wyrazisty;
- dzieci otrzymują akceptację nie tylko od nauczyciela, ale także od komputera w postaci obrazków-nagród, którym towarzyszy udźwiękowienie;
- harmonijne połączenie tradycyjnych środków z wykorzystaniem prezentacji w programie Power Point może znacznie zwiększyć motywację dzieci do nauki.

Projektowanie zajęć z wykorzystaniem technologii multimedialnych to zupełnie nowy kierunek w działalności nauczyciela i to tutaj można zastosować całe zgromadzone doświadczenie, wiedzę i umiejętności oraz kreatywne podejście. Zajęcia prowadzone w szkołach z wykorzystaniem elektronicznych publikacji edukacyjnych na długo pozostaną w pamięci dzieci. Jednocześnie oczywiście w kształceniu gustu muzycznego najważniejsza pozostaje rola nauczyciela, której nie zastąpi żaden komputer.
Podsumowując powyższe, można stwierdzić, że tworzenie i wykorzystywanie multimedialnych scenariuszy lekcji jest jednym z obiecujących obszarów wykorzystania technologii informacyjno-komunikacyjnych w szkołach. Nie należy jednak zapominać o naukowym charakterze, celowości, logice prezentacji informacji multimedialnych.

Edukacyjne gry interaktywne z wyzwalaczami

Co to jest wyzwalacz? Wyzwalacz to narzędzie do animacji, które pozwala ustawić akcję na wybranym elemencie, animacja rozpoczyna się po kliknięciu.
To użycie wyzwalaczy w edukacyjnych grach prezentacyjnych czyni je interaktywnymi.
Rozważ algorytm rejestrowania czasu animacji za pomocą wyzwalacza.
1. Wybierzemy niezbędne zdjęcia i zastanowimy się nad ewentualnymi pytaniami. Lepiej zmienić nazwy obrazków na wygodne przed umieszczeniem ich w prezentacji. Obiektem animacji i wyzwalaczy mogą być zarówno obrazki, jak i obiekty tekstowe, za pomocą których zgodnie z planem odbędzie się akcja.
2. Umieść na slajdzie obiekty, do których zostanie zastosowana animacja i wyzwalacz. Pomyśl o treści użycia animacji, na przykład:
Wybór: Obróć lub Zmień rozmiar;
Ścieżki podróży: Kierunek podróży lub Narysuj własną ścieżkę. (Rys. 1)
Ważny: Nie bierz animacji Wejście


3. Powiąż efekt animacji z obiektem, tak aby po kliknięciu rozpoczynał się na slajdzie. Chcemy, aby obiekt znikał np. po kliknięciu na błędną odpowiedź, a po kliknięciu na poprawną odpowiedź powiększył się wraz z sygnałem dźwiękowym. Aby to zrobić, zaznacz obiekt lub „kliknij” strzałkę obok efektu w panelu zadań (prostokąt w kółku), aby otworzyć menu rozwijane i wybrać polecenie Czas (rys. 2).

W otwartym oknie aktywujemy przycisk Switches, odpowiada on za działanie spustu. Wybierz - Uruchom efekt po kliknięciu. Uwaga! Wybierz z listy po prawej stronie wymagany element z proponowanych przez nas opcji efektów animacji. (Rys. 3).
Po tej akcji nad obiektem w obszarze zadań Ustawienia animacji (Rys. 4) zobaczymy słowo „wyzwalacz”. Wyzwalacz został utworzony.


Podczas wyświetlania prezentacji kursor strzałki na obiekcie ze spustem zmienia się w kursor dłoni.
4. Powtórz wszystkie czynności z pozostałymi obiektami.
5. Możesz sprawdzić się w Ustawieniach animacji: każdy obiekt o tej samej nazwie ma animację, wyzwalacz i plik muzyczny (jeśli istnieje).
6. Teraz ustawmy obiekty pod kątem pojawienia się dźwięku. Uwaga! Plik dźwiękowy musi być mały! Wstaw dźwięk (oklaski itp.) poprzez menu Wstaw - Dźwięk - wybierz żądany plik (z pliku, z organizatora klipów, własne nagranie) i odtwórz dźwięk po kliknięciu (Rys. 5).


Przeciągnij dźwięk do żądanego obiektu. Ustawiliśmy ikonę mikrofonu na tryb niewidoczny (Rys. 2) (Parametry efektów - Parametry dźwięków - Ukryj ikonę podczas pokazu, ustaw V).
7. Dostosuj dźwięk: wybierz obiekt „dźwięk” lub „kliknij” strzałkę obok dźwięku w obszarze animacji (zakreślony prostokąt), aby otworzyć menu rozwijane i wybierz polecenie Czas (rys. 2).
8. Uwaga! (Rys. 6)


Początek - po poprzednim.
Uruchom efekt na kliknięcie - znajdź przedmiot, z którym zabrzmi muzyka.
9. Dodaj przycisk, aby przejść do następnego slajdu. Wybieramy w menu Wstaw - Kształty - Przyciski sterujące (ryc. 7). Rysujemy poniżej (kursor zmienił się w +) wybraną figurę. Zostanie otwarte okno Ustawienia akcji.


10. Wykonaj ustawienia akcji (Rys. 8): Po kliknięciu myszką - Podążaj za hiperłączem - Wybierz slajd, do którego chcesz przejść w oknie, które zostanie otwarte - OK.
11. Po wyświetleniu prezentacji kursor strzałki na przycisku sterowania zmienia się w kursor dłoni, tak jak na obiekcie ze spustem.
Stosowanie wyzwalaczy nie zawsze jest wygodne, na przykład w przypadku obiektów WordArt. W nich aktywna jest tylko powierzchnia liter i trudno wejść w nią kursorem. W takich przypadkach stosuje się metodę przezroczystych wyzwalaczy, kiedy wyzwalacz jest przypisany nie do samego obiektu, ale do nałożonej na ten obiekt przezroczystej figury.
1. Menu Wstaw - Kształty - wybierz np. prostokąt i narysuj go na obiekcie WordArt. Wybierz go, kliknij prawym przyciskiem myszy i wybierz linię „Format kształtu”: Wypełnienie - Kolor biały, przezroczystość 100%; Kolor linii — Brak linii.
2. Stosujemy animację do obiektu WordArt, aw nim - wyzwalacz do obiektu. Powierzchnia prostokąta jest aktywna, co oznacza, że ​​łatwiej trafić w nią kursorem.
W przypadku niektórych gier wygodnie jest używać ruchomych wyzwalaczy, na przykład „strzelanie” do ruchomego celu, „Bubble Pop” itp.
- Obiekty zaczynają się poruszać automatycznie podczas zmiany slajdów: Animacja Ścieżki ruchu - Start pierwszego obiektu Po kliknięciu, kolejne - Z poprzednim.
- Dodaj animację do obiektów. Szybkość ruchu obiektu w Animacji ustawia się (Rys.3) w zakładce Czas.
- Aby zapobiec niezamierzonym przejściom slajdów, gdy przypadkowo klikniesz w przeszłość podczas gry, usuń zaznaczenie zmiany slajdu „Po kliknięciu” i ustaw przycisk sterujący lub obiekt z hiperłączem do następnego slajdu.


Hiperłącze to podświetlony obiekt (tekst lub obraz), który jest połączony z innym dokumentem lub lokalizacją w tym dokumencie i reaguje na kliknięcie myszą.
Najpierw tworzymy wymaganą liczbę slajdów: zalecamy użycie motywów lub układów „Tylko tytuł” ​​lub „Pusty slajd”.
Do stworzenia jednego poziomu gry interaktywnej potrzebujemy trzech slajdów (jeden - z zadaniem; drugi - z wartością błędnej odpowiedzi i powrotu do slajdu z zadaniem; trzeci - z wartością poprawnej odpowiedzi i przejście do następnego poziomu) (rys. 9).


Na slajdzie z zadaniem umieszczamy obiekty, które połączymy hiperłączem do innego slajdu (umieść w dokumencie)
Wybierz obiekt, przejdź do zakładki „Wstaw”, wybierz polecenie „Hiperłącze” (ryc. 10)


W oknie, które się pojawi (rys. 11), w polu „Link do” wybierz „Umieść w dokumencie”. W polu „Wybierz miejsce w dokumencie”, kliknij „Tytuł slajdu”, znajdź slajd, którego chcesz użyć jako celu hiperłącza (możesz go zobaczyć w oknie „Wyświetl slajd”). Kliknij OK".


Jeśli istnieje potrzeba usunięcia hiperłącza, w tym samym oknie (ryc. 11) znajduje się przycisk „Usuń hiperłącze”, kliknij „OK”.
Każdy obiekt na slajdzie łączymy z zadaniem za pomocą niezbędnego znaczeniowo hiperłącza do slajdu.
Aby powrócić do slajdu z zadaniem lub przejść do następnego poziomu gry, możesz utworzyć hiperłącze tekstowe, jak na rys. 9, lub użyć przycisków Control. Wybierz menu Wstaw - Kształty - Przyciski sterujące (ryc. 12).


Rysujemy poniżej (kursor zmienił się w +) wybraną figurę. Zostanie otwarte okno Ustawienia akcji. Ustawienia akcji wykonujemy (Rys. 13): Klikając myszką - Przejdź do hiperłącza - Wybierz slajd, do którego chcesz przejść w oknie, które zostanie otwarte (zalecamy SLAJD) - otworzy się okno, w którym możesz zobaczyć slajd, który chcesz zamierzamy - ok.


Możemy przeciągnąć przycisk sterujący w dowolne miejsce na slajdzie, zmniejszyć lub zwiększyć jego rozmiar, użyć Narzędzi do rysowania do zmiany koloru, wypełnienia, napisania tekstu itp.
W podobny sposób tworzymy potrzebną nam liczbę poziomów gry i możemy rozpocząć grę. Dodatkowo możesz dołączyć pliki dźwiękowe.

NAGRYWANIE I PRZYCINANIE DŹWIĘKU

Możesz nagrać i edytować plik audio w profesjonalnym studiu za pomocą specjalnych programów lub użyć improwizowanych narzędzi - standardowych programów i narzędzi systemu operacyjnego Windows. Oprócz tego potrzebujemy gotowych plików w różnych rozdzielczościach, mikrofonu do nagrywania głosu i pewnych umiejętności.

nagrywanie dźwięku

Możesz nagrać mały plik dźwiękowy za pomocą programu Sound Recorder, który jest programem systemu Windows przeznaczonym do nagrywania, miksowania, odtwarzania i edycji nagrań dźwiękowych. Ponadto program Sound Recorder umożliwia łączenie dźwięków z innym dokumentem lub wstawianie ich do niego. Źródło dźwięku - mikrofon, napęd CD-ROM lub urządzenie zewnętrzne.
Otwórz program: Menu Start - Wszystkie programy - Akcesoria - Rozrywka - Rejestrator dźwięku. Aby nagrać dźwięk, wybierz polecenie Nowy z menu Plik. Aby rozpocząć nagrywanie, kliknij przycisk Nagraj. Aby zatrzymać nagrywanie, kliknij przycisk Zatrzymaj. Otrzymujemy plik w rozdzielczości WAV, czas trwania dźwięku nie przekracza 60 sekund.


Aby zamontować kilka plików dźwiękowych w jednym lub wkleić jeden plik do drugiego, wybierz Plik - Otwórz. Znajdź plik, który chcesz edytować, przesuń suwak do miejsca, w którym chcesz wkleić drugi plik. W menu Edycja wybierz polecenie Wstaw plik i kliknij dwukrotnie plik, który chcesz otworzyć. W ten sposób można wydłużyć czas trwania dźwięku.
Plik można odtwarzać w odwrotnej kolejności, w tym celu wchodzimy do menu Efekty - Odwróć i klikamy przycisk Odtwórz, w menu Efekty zmieniamy plik - polecenie Dodaj echo.
Możesz nadpisać plik muzyczny za pomocą odtwarzacza karaoke. Plik KAR lub midi ustawiamy w żądanym tempie i tonacji, następnie włączamy Odtwarzanie całego pliku lub jego fragmentu na odtwarzaczu i jednocześnie Nagrywamy w programie Sound Recorder. Otrzymujemy dane wyjściowe i zapisujemy plik w rozdzielczości WAV.

Windows Movie Maker

Kolejna opcja nagrywania i edycji plików (dźwiękowych i wideo) za pomocą programu Windows Movie Maker.


Dźwięk nagrany za pomocą mikrofonu jest zapisywany jako plik audio w formacie Windows Media z rozszerzeniem .wma. Domyślnie plik notatki dźwiękowej jest zapisywany w folderze „Komentarz” znajdującym się w folderze „Moje wideo” na dysku twardym. Program umożliwia dodawanie efektów dźwiękowych: głośność dźwięku stopniowo wzrasta do końcowego poziomu odtwarzania lub stopniowo maleje, aż do całkowitego zaniku dźwięku.
Aby edytować dźwięk, otwórz plik przez Nagraj wideo - Importuj dźwięk lub muzykę, w środkowym polu pojawi się notatka, którą przeciągamy na oś czasu poniżej.
Po prawej stronie w oknie włącz Play, użyj przycisku Podziel klip na części (ryc. 3) podczas słuchania. Zbędne fragmenty usuwamy Del na klawiaturze, podciągamy pozostałe fragmenty i otrzymujemy potpourri, które następnie zapisujemy na komputerze w formacie Windows Media Audio File.


To samo dzieje się z plikiem wideo, tylko przez Importuj wideo.

Przytnij plik mp3 online

Twoja uwaga jest skierowana na cięcie muzyki online w Internecie. (http://mp3cut.foxcom.su/) . W przeszłości szukaliśmy zaawansowanych programów do edycji plików audio. Dzięki bezpłatnej usłudze serwisu mp3cut.ru cięcie stało się łatwiejsze, szybsze i wygodniejsze (ryc. 4).


Krok 1. Kliknij przycisk „Pobierz mp3”, wybierz żądany plik ze swojego komputera i poczekaj, aż się załaduje. Gdy plik będzie można edytować, ścieżka zmieni kolor na różowy, a przycisk odtwarzania zmieni kolor na czerwony.
Krok 2. Teraz możesz wyciąć plik mp3. Bieżniki-nożyce odsłaniają pożądany fragment kompozycji.
Krok 3. Kliknij przycisk „Przytnij”, pobieranie rozpocznie się natychmiast.

Funkcje programu on-line do cięcia muzyki

Music Cutter obsługuje większość formatów audio: mp3, wav, wma, flac, ogg, aac, ac3, ra, gsm, al, ul, voc, vox, co umożliwia korzystanie z usługi online jako konwertera plików audio do mp3: wav do mp3, wma do mp3, ogg do mp3, flac do mp3 itp.
Obecność funkcji wzmacniania / tłumienia dźwięku na początku i na końcu wybranego segmentu. Dzięki tej opcji możesz samodzielnie stworzyć dzwonek, który nie przestraszy Cię nagłym początkiem lub nagłym zakończeniem na końcu.
Podwój objętość cięcia. Funkcja pozwala zwiększyć głośność cięcia, co często jest konieczne, zwłaszcza przy tworzeniu dzwonka.
Czas cięcia nie ma ograniczeń. Segment jest wybierany z dokładnością do milisekund. Za pomocą klawiatury (strzałki lewo/prawo) można bardzo precyzyjnie ustawić początek i koniec segmentu muzycznego.
Możliwość wielokrotnego przycinania jednego pliku audio bez dodatkowego pobierania. te. możliwe jest stworzenie kilku dzwonków z jednego utworu, melodii, kompozycji muzycznej.
Rozmiar pliku jest prawie nieograniczony

BIBLIOGRAFIA:
1. Altszuller, GS Kreatywność jako nauka ścisła: Teoria rozwiązywania problemów wynalazczych / G.S. Altszuller. - M., 2008. - 84 s.
2. Gorbunowa I.B. Fenomen muzyki i technologii komputerowych jako nowe kreatywne środowisko edukacyjne // Izwiestija RGPU im. sztuczna inteligencja Hercena. 2004. nr 4 (9). s. 123–138.
3. Edytor graficzny Paint. Edytor prezentacji programu PowerPoint (+ dysk CD) /pod. wyd. Żytkowa O.A. i Kudryavtseva E.K. - M.: Centrum Intelektu. 2003 - 80 str.
4. Ermolaeva-Tomina, L.B. Problem rozwoju zdolności twórczych dzieci / L.B. Ermolaeva-Tomina // Pytania z psychologii. - 2009. - Nr 5. - P.166-175.
5. Krasilnikow I.M. Elektroniczna twórczość muzyczna w systemie edukacji artystycznej / I.M. Krasilnikow. - Dubna, 2009. - 496 s.
6. Płotnikow K.Yu. Metodyczny system nauczania informatyki z wykorzystaniem technologii muzyczno-komputerowych: monografia. SPb., 2013. 268 s.
7. Tarasowa K.V. Muzykalność i jej składowe zdolności muzyczne // Kierownik muzyczny. - 2009. - Nr 5.
8. Tepłow B.M. „Psychologia zdolności muzycznych” - M., 1978.
9. Uljanowicz, V.S. Notatki o muzyce komputerowej / V.S. Uljanicz // Życie muzyczne. - 2008. nr 15.
10. Tworzenie prezentacji w Power Point - [Zasób elektroniczny]

Praca dyplomowa

Puczkow, Stanisław Władimirowicz

Stopień naukowy:

Doktor historii sztuki

Miejsce obrony rozprawy:

Sankt Petersburg

Kod specjalności VAK:

Specjalność:

Teoria i historia sztuki

Numer stron:

Rozdział I. Muzyczne i historyczne przesłanki powstania i rozwoju muzyki technicznej

Sekcja 1. Analiza procesu powstawania muzyki technicznej

1.1. Rozwój myślenia muzycznego i techniki kompozytorskiej

1.2. Dzieje muzyki elektronicznej, rozwój technicznych metod jej tworzenia oraz niektóre osiągnięcia artystyczne do około 1975 roku).

1.3. Cele muzyki elektronicznej

1.4. Historia rozwoju instrumentów elektronicznych.

Sekcja 2. Metody kompozycji muzyki technicznej i technologie komputerowe.

2.1. Analiza zasad i metod komponowania muzyki technicznej w pierwszej połowie XX wieku

2.2. muzyka komputerowa

Rozdział II. Odtwarzanie muzyki przy użyciu technologii komputerowej

Sekcja 1. Doświadczenie w informatyzacji działalności muzycznej (nagrywanie i wykonywanie muzyki technicznej).

1.1. Historyczne etapy powstania i rozwoju muzyki komputerowo-akustycznej.

1.2. Techniczny zestaw narzędzi współczesnego muzyka.

1.2.1. Systematyzacja według cech funkcjonalnych studiów nagraniowych

1.2.2. Systematyzacja i klasyfikacja elektronicznych instrumentów muzycznych (EMI)

Główne rodzaje i zasady działania syntezatorów.

Podstawowe rodzaje i zasady działania samplerów.

Sekwenser jako nowa jakość w sterowaniu urządzeniami syntezatorowymi.

1.2.3. MIDI - Musical Instruments Digital Interface (cyfrowy interfejs instrumentów muzycznych).

Sekcja 2. Oprogramowanie dla muzycznych technologii MIDI.

2.1. Systematyzacja narzędzi programowych z uwzględnieniem stosowanej technologii.

Cechy technologii MIDI i AUDIO

Klasyfikacja programów według cech funkcjonalnych

2.2. Charakterystyka różnych rodzajów programów dźwiękowych i muzycznych.

Główne funkcje programów do zarządzania plikami dźwiękowymi (odtwarzacze multimedialne)

Sekwencery MIDI - możliwość nagrywania, odtwarzania i edycji utworów muzycznych.

Interaktywne programy sekwencerowe (automatyczne aranżery).

Wielościeżkowe cyfrowe studia audio.

Wirtualne syntezatory

Emulatory modułów dźwiękowych i syntezatorów.

Samouczki muzyczne

Przedmioty muzyczne i recenzowane samouczki.79 Narzędzia

Sekcja 3. Zasady działalności muzycznej tradycyjnej sztuki muzycznej i system powiązań z technologiami komputerowymi

3.1. Systematyzacja i klasyfikacja parametrów wykonawczych syntezatorów.

3.2. Związek między parametrami wykonawczymi a sposobami artykulacji dźwięku w syntezatorze

Rozdział III. Komputerowe metody badań muzycznych.

Sekcja 1. Komputerowe metody badania właściwości akustycznych dźwięku.

1.1. System do analizy właściwości akustycznych dzwonów rosyjskich.

1.2. Przygotowanie do nagrania dźwięków dzwonka.

1.3. Analiza dźwięku dzwonka.

1.4. Jak pracować z programem Wavanal

1.5. Analiza spektralna stosowana przez Wavanal

1.6. Szczegóły digitalizacji fali dźwiękowej

1.7. Wyświetl przebieg (Wyświetl przebieg).

1.8. Zobacz transformację / pobierz częściowe

1.9. Zobacz Zobacz / Edytuj częściowe

1.10. Metodologia korzystania z programu cyfrowej rejestracji dźwięku rosyjskich dzwonów

1.11. Cyfrowa technika renowacji z wykorzystaniem różnych edytorów muzycznych oraz specjalistycznych programów Cool Edit, Sound Forge, Dart Pro.

1.12. Cyfrowa technika renowacji z wykorzystaniem specjalistycznego programu Dart Pro.

1.13. Metody obliczania analizy spektralnej próbek dzwonów, konstruowania ich spektrogramów i trójwymiarowych widm skumulowanych

Rozdział 2. Metodyka tworzenia elektronicznego odpowiednika dzwonów na bazie technologicznej syntezy Wavetable z próbek dźwiękowych dzwonów kościelnych

2.1. Technika przygotowania próbek dzwonowych do samplera EMU

2.2. Niektóre technologiczne aspekty tworzenia i przechowywania informacji o narzędziach.

Sekcja 3. Wybrane aspekty współczesnej edukacji muzycznej - problemy i innowacje związane z informatyzacją procesu.

3.1. Możliwości wykorzystania technologii komputerowych w edukacji muzycznej.

3.2. Komputerowe systemy nauczania muzyki.

3.3. Zastosowanie technologii komputerowych w nauczaniu przedmiotów muzykoteoretycznych.

3.4. Nauka na odległość.

Wstęp do pracy (część streszczenia) Na temat „Muzyczne technologie komputerowe jako nowy zestaw narzędzi dla współczesnej kreatywności”

Rozprawa poświęcona jest badaniu współczesnych instrumentów twórczości muzycznej (kompozycja, wydajność, badania muzyczne). Intensywny rozwój technologii komputerowych, ich szerokie zastosowanie w różnych rodzajach twórczości muzycznej, postawiło szereg problemów, które wymagają zrozumienia i rozwiązania przez współczesną muzykologię. Impulsem do powstania i rozwoju muzyki technicznej (TM) i jej odmiany – muzyki elektronicznej (EM) – w XX wieku były dwa czynniki: a) chęć kompozytorów do poszukiwania nowych środków wyrazu w muzyce, do nowego muzycznego język, a co za tym idzie, nowe instrumentarium; b) szybki rozwój naukowy i technologiczny w dziedzinie elektroniki, a później informatyki.

Jasny „wzrost” zainteresowania muzyków (i słuchaczy) niezwykłymi dźwiękami, nowymi barwami, a także chęć choć trochę ułatwienia niezwykle trudnej pracy kompozytora i wykonawcy oraz pojawienie się możliwości wykorzystania nowych technologie informacyjne do tego z góry zdeterminowały wykorzystanie komputerów w procesie komponowania muzyki. Pierwsze komputery nie były do ​​tego przeznaczone; projektanci musieli pracować, ale bez muzyków nic by nie zrobili. Teraz można powiedzieć, że ta technika jest gotowa całkowicie zmienić myślenie muzyczne. I przez bardzo krótki czas w aspekcie historycznym (dopiero w sierpniu 1981 r. IBM zaczął produkować pierwsze na świecie komputery osobiste) technika ta zjednoczyła wiele milionów ludzi; zainteresowanie jej możliwościami w dziedzinie muzyki stało się naprawdę kolosalne. Odwoływanie się do technologii informatycznych, akustyka muzyczna w ich rzeczywistych powiązaniach z muzyką stawia przed badaczami wiele trudnych problemów. Niewątpliwie najważniejszym z nich jest problem korelacji między myśleniem artystycznym (muzycznym) a przyrodniczym, czy też problem korelacji figuratywnego emocjonalnego odbioru muzyki z trafnością, obiektywnością metod jej poznania. Jednak obiektywne kryteria pozwalają na uzyskanie wiedzy jedynie o zewnętrznych, materialnych przejawach sztuki. Dla przedstawicieli nauk ścisłych duchowa istota sztuki, będąca podstawą estetycznego poznania muzyki, pozostanie ukryta (jeśli nie na zawsze, to na długo). W każdym razie technologie informacyjne i akustyka muzyczna nie dają naukowcom takich możliwości. W związku z tym przed naukowcami staje problem stworzenia metody poznania duchowej istoty sztuki. Zwrócenie na to uwagi jest jednym z celów tej pracy.

Tak więc muzyczne technologie informacyjne jako dynamiczny, aktywnie rozwijający się system w swoich relacjach ze sztuką muzyczną, cechy kształtowania się tego systemu, kształtowanie się muzycznych technologii informacyjnych i akustyki muzycznej w wyniku licznych wpływów muzyki na obszar badań – te zagadnienia stanowią treść niniejszej pracy.

Problematyka relacji między sztuką muzyczną a nowoczesnymi środkami technicznymi była dyskutowana na długo przed pojawieniem się komputerów osobistych (czyli do sierpnia 1981 roku). Warto przypomnieć, że P. Kh Zaripow pracował niezwykle owocnie w tym kierunku w Rosji. Na zachodzie wyróżniają się prace A. Mola i współpracowników. Stworzono więc warunki, aby kierunek muzyczny informatyki i akustyki nabrał nowych jakości i wkroczył do praktyki sztuki muzycznej, aby stać się komputerowymi technologiami muzycznymi (akustyka komputerowa).

U podstaw tego „duetu” leżą co najmniej trzy „wieloryby”. Po pierwsze, najważniejsze jest doświadczenie w działaniach twórczych – komponowaniu i wykonywaniu; dopiero to doświadczenie daje treść, esencję estetyczną muzyki, która jest kojarzona z nową technologią (elektronika, beton, komputer) i oczywiście aktywnie wpływa na instrumentację muzyczną. Po drugie, są to prace teoretyczne i praktyczne z zakresu elektryki, elektroniki i informatyki. Zapewnili tworzenie i rozwój specjalnego sprzętu, oprogramowania, elektronicznych instrumentów muzycznych. Wreszcie po trzecie, jest to specjalistyczna wiedza z zakresu akustyki fizycznej, muzycznej, akustyki architektonicznej, elektroakustyki, psychofizjologii słuchu. Są one specyficzne dla rozwoju rozważanego kierunku. Wchodzące w skład systemu wiedzy muzycznej technologie komputerowe i akustyka znalazły najrozmaitsze zastosowanie – w komponowaniu, wykonywaniu muzyki, w pedagogice muzycznej, w muzykologiczny badania.

Niniejsze opracowanie zwraca uwagę na związki między muzyczną technologią komputerową a muzyką, które determinują rozwój zarówno sztuki muzycznej, jak i nauki. Oznacza to, że mówimy o integralnym systemie, który obejmuje zarówno twórczość muzyczną, jak i wiedzę o twórczości dokładnymi metodami. Intensywny rozwój technologii komputerowych, ich szerokie zastosowanie w różnych rodzajach twórczości muzycznej, postawiło szereg problemów, które wymagają zrozumienia i rozwiązania przez współczesną muzykologię.

Znaczenie tego badania wynika z istniejących sprzeczności między:

Stopień rozpowszechnienia elektronicznych technologii muzycznych w rzeczywistej praktyce artystycznej oraz poziom teoretycznego zrozumienia różnych aspektów zastosowania technologii elektronicznej w określonych obszarach twórczości muzycznej;

Możliwości komputerowych technologii muzycznych w praktyce artystycznej (kompozycja, zapis nutowy, wykonawstwo, obszar badań itp.) oraz stopień ich implementacji.

Celem pracy jest analiza i teoretyczne uzasadnienie systemu powiązań, wzajemnych oddziaływań tradycyjnych środków twórczości muzycznej i nowych narzędzi, jako środka poznania i tworzenia współczesnej sztuki muzycznej. W trakcie badań pojawia się szereg pytań, które wymagają refleksji. Co było impulsem do powstania i rozwoju muzyki technicznej i elektronicznej? Jak rozwijały się te obszary? Jakie rezultaty (twórcze i techniczno-technologiczne) osiągnięto w tym obszarze? Jakich perspektyw (twórczych, naukowych, technologicznych, dydaktycznych) się oczekuje i jakie problemy pojawiają się w związku z szybkim rozwojem sztuki współczesnej? Te i inne pytania predestynują zakres zadań stojących przed badaczem:

określać etapy i kierunki rozwoju muzyki technicznej;

Zbadaj i uogólnij doświadczenia nauczania z wykorzystaniem muzycznych technologii komputerowych;

Porównaj możliwości technologiczne i artystyczne muzyki technicznej pierwszej połowy XX wieku i współczesnej muzyki elektronicznej;

Poznać terminologię nowoczesnych muzycznych technologii komputerowych (technologie MIDI, sekwencjonowanie, notatory itp.);

Usystematyzować komponenty programowe i sprzętowe nowoczesnych narzędzi twórczości muzycznej;

Tworzenie metod adaptacji instrumentów tradycyjnych w wirtualnym środowisku muzycznych technologii komputerowych.

Niniejsze opracowanie opiera się na systematycznej metodologii badania i modelowania procesów powstawania i rozwoju nowych zjawisk artystycznych i muzyczno-technicznych w kulturze instrumentalnej XX-XXI wieku. Autor opiera się przede wszystkim na wskazówkach metodologicznych, rozwija zapisy teoretyczno-metodologiczne, koncepcje muzykologiczne, głównie zagraniczne, instrumentalny i badań informatycznych (P. Boulez, J.-B. Barrier, A. Mol, J. Xenakis, A. Hein,

C. Osgood i inni). Wpływ na to badanie miały również prace krajowych naukowców ze szkoły N. A. Garbuzowa: E. A. Maltseva, A. V. Rabinovich, S. G. Korsunsky, E. A. Rudakov, B. M, Teplov, A. A Volodin, V. Nazaikinsky, V. V. Medushevsky, Yu. Tsekhansky, L. P. Robustova, R. X. Zaripova, A. Ustinova, E. Komarov, A. Gurenko i inni. Rozprawy i prace zwolenników zintegrowanego podejścia do badania praw myślenia muzycznego B. Asafiev, A. Losev, S. Skrebkowa i innych.

Z analizy literatury wynika, że ​​problematyka tego projektu badawczego została dotychczas omówiona tylko częściowo, co wskazuje na potrzebę opracowania specjalnego opracowania.

W artykule sformułowano główne wymagania dotyczące klasyfikacji elementów sprzętu dźwiękowego i oprogramowania, zbadano specyfikę współczesnej notografii komputerowej (technologia MIDI). Ważnym elementem badań było opracowanie techniki cyfrowej rejestracji dźwięków dzwonów rosyjskich z XVI-XIX wieku. i tworzenie banków dźwięków1 na podstawie ich sampli. Jako przedmiot badań wybrano sztukę muzyczną jako dziedzinę zastosowań muzycznych technologii komputerowych, przedmiotem badania byli muzycy, specjaliści różnych dziedzin sztuki, którzy wykorzystują muzyczne technologie komputerowe jako narzędzia do rozwiązywania zadań artystycznych, twórczych, badawczych, dydaktycznych i innych .

Podstawa metodyczna badania z góry zadecydowała o charakterze pracy, na którą składają się następujące obszary:

1) badanie muzyczno-historycznych przesłanek powstania muzyki technicznej;

2) odtwarzanie muzyki przy użyciu technologii komputerowej;

3) komputerowe metody badań muzycznych.

Prawdziwe badania muzyki elektronicznej poprzedziły dalsze osiągnięcia w rozwoju sprzętu, tworzeniu elektronicznych instrumentów muzycznych.

Oczywiście pierwsze eksperymenty z wykorzystaniem elektryczności przeprowadzono już w XVIII wieku – w statycznej elektryczności „ elektroklawesyn» La Borde (1759); później w XIX wieku. - w elektronicznych instrumentach muzycznych C. Page'a, zwanych " muzyka galwaniczna”(1837) Jest to więc możliwość telefonicznego przesyłania koncertów muzycznych z jednego miasta do drugiego, która pojawiła się po eksperymentach Niemca Philipa Raisa (1861) i Amerykanina Grahama Bella (1876). To także okazja do nadawania drogą radiową różnych, w tym muzycznych, komunikatów (po badaniach Faradaya, Maxwella i G. Hertza, po stworzeniu urządzeń radiowych przez A. S. Popowa w 1895 r., Marconiego w 1897 r.). Na koniec należy powiedzieć o próbach uzyskiwania dźwięków za pomocą drgań elektrycznych; jeden z nich został wcielony w The Singing Arc autorstwa W. Duddella „a (1899).

Zgromadzone doświadczenie pozwoliło zwrócić się bezpośrednio do muzyki. Pojawił się pierwszy elektryczny instrument muzyczny Telharmonium T. Ca-hill (1900). Wreszcie pojawiły się pierwsze koncertowe elektroniczne instrumenty muzyczne - theremin JI. S. Theremin (1920); trauton przez Friedricha Trautweina (1928); emiriton AA Iwanow, AV Rimski-Korsakow i inni (1935). Ale sama muzyka elektroakustyczna była jeszcze daleko. Mógł powstać tylko w oparciu o specjalny sprzęt elektroakustyczny.

Od pierwszych kroków w rozwoju elektroniki rozważano różne możliwości jej wykorzystania w dziedzinie muzyki. Naukowców interesowała przede wszystkim możliwość tworzenia nowych instrumentów, „tworzenie” samych dźwięków i przekazywanie dźwięku. Spieranie się, kto stworzył pierwszy na świecie syntezator muzyki elektronicznej, nie ma większego sensu. Kompozytor i badacz muzyki komputerowej V. Ulyanich uważa, że ​​\u200b\u200bpierwszy na świecie syntezator „Variafon” został wynaleziony w 1929 roku przez krajowego inżyniera E. A. Sholpo. N. Suszkiewicz wymienia w związku z tym Amerykanina S. Cahilla (Thaddeusa Cahilla) - wynalazcę telharmonium (1903); należy jednak pamiętać, że ten zbyt niedoskonały aparat nie znalazł zastosowania w praktyce koncertowej. Theremin wspomniany powyżej przez JI. S. Theremin (1920) to także syntezator, tylko wykonany na innej podstawie. EA Murzin opracował syntezator ANS (nazwany na cześć AN Skryabina) w latach 50.; E. Denisov, A. Schnittke, S. Gubaidulina, E. Artemiev, A. Volkonsky, P. Meshchaninov i inni próbowali swoich sił w muzyce elektronicznej na tym instrumencie, matematyk i muzyk R. Zaripov rozpoczął swoje pierwsze eksperymenty z modelowaniem melodii monofonicznych na komputer Ural ”(to znaczy w rzeczywistości Zaripow używał komputera jako syntezatora). Idąc za nim, A.R. Bukharaev i M. Rytvinskaya próbowali swoich sił w tym samym samochodzie. Obecnie, przy pomocy metod algorytmicznych, całkiem dobre wyniki (w odtwarzaniu dźwięku na komputerze) osiągnął moskiewski muzyk i programista D. Żalnin. Amerykanie uważają, że ich „Mark-1” – komputerowy syntezator (1960) – jest również pierwszym na świecie. Każdy ma rację na swój sposób, ponieważ każde z tych urządzeń jest pierwszym w swojej „rodzinie” lub na jej podstawie.

Jeśli chodzi o rozwój sprzętu elektroakustycznego do celów muzycznych, syntezatorów, należy zauważyć, że w naszym kraju pod tym względem duży wkład mają w szczególności I. D. Simonov, J1. S. Termen, AA Volodin. Do tej pory istniały niezliczone modyfikacje syntezatorów. Posiadamy najbardziej znane industrialne wersje syntezatorów - Roland, Korg, Yamaha, Casio, E-MU itp.

Nadawanie charakterystyk technicznych syntezatorom nie mieści się w zakresie zadań przypisanych do opracowania. Niniejsza praca ma na celu analizę, ocenę standardowego interfejsu MIDI, samplerów, sekwencerów, pogłosów, mikserów, systemów akustycznych, „oprogramowania” (oprogramowania) itp. urządzeń, różnych metod stosowanych w trakcie pracy nad kompozycją. Należy tylko zauważyć, że muzycy wykorzystują nowe techniki i nowe metody do tworzenia utworów elektronicznych, edycji sekwencji sekwencerowych i przetwarzania dźwięku cyfrowego.

Wartość idei wykorzystania muzyki i technologii komputerowych jako narzędzia do badania zjawisk muzycznych naszych czasów polega na tym, że jest to jedna z pierwszych prób wprowadzenia w Rosji muzykologiczny odwołuje się do kręgu pojęć, bazy terminologicznej oraz zestawu sprzętu i oprogramowania, uważanego wcześniej za prerogatywę nauk ścisłych. Temat niniejszego opracowania znajduje się na przecięciu problemów naukowych i muzyczno-teoretycznych i przedstawia pewne trudności ze względu na nowatorstwo nauki o dźwięku cyfrowym i wykorzystanie technologii komputerowej w muzykologii. Nowatorstwo rozprawy polega na uwzględnieniu wzajemnego oddziaływania i wzajemnych powiązań szerokiego wachlarza możliwości technologii komputerowych w kontekście nowych narzędzi i ich miejsca we współczesnej sztuce muzycznej. Wyraża się to w uświadomieniu sobie możliwości przejścia badań na wyższy poziom wiedzy o utworze muzycznym, gdy nauka staje się narzędziem badania sztuk performatywnych (a nie tylko systemem wiedzy o technologii wytwarzania dźwięku i jej postrzeganie). Nowością jest również aspekt dydaktyczny: problematyka szkolenia specjalistów w zakresie komputerowej twórczości muzycznej, badanie bazy technicznej i technologicznych zasad jej zastosowania w procesie edukacyjnym.

Na obronę przedkłada się następujące postanowienia w postaci wyników: 1) retrospektywnej analizy powstawania i rozwoju muzycznych technologii komputerowych, wyrażonej w: a) periodyzacji zmian stylów muzycznych, technik kompozytorskich, technologii komponowania muzyki ; b) charakterystyka czynników, które doprowadziły do ​​rozwoju tego typu technologii (informatyzacja działalności muzycznej, technizacja twórczych procesów muzycznych itp.)

O specyfice współczesnych instrumentów elektronicznych, określonych przez zasady produkcja dźwięku, kształtowanie dźwięku i zasadniczo odmienne podejście do pracy wykonawcy;

O muzycznych technologiach komputerowych jako nowym narzędziu twórczym, czynniku stymulującym integrację metod naukowych z muzykologią, uważaną wcześniej za prerogatywę nauk ścisłych, i powodującym przejście badań na wyższy poziom wiedzy o sztuce muzycznej; b) klasyfikacja i charakterystyka obszarów zastosowań nowoczesnych narzędzi informatycznych:

Nauka o sztuce muzycznej, gdzie nowe technologie umożliwiają identyfikację nowych wzorców i integralnych cech muzyki, algorytmizację różnych rodzajów działań kompozytorskich i wykonawczych, uzyskanie obiektywnych cech faktury muzycznej (agogiki) i innych składników twórczości;

Wyniki naukowe pracy zostały przetestowane na Humanitarnym Uniwersytecie Związków Zawodowych w Petersburgu (SPbGUP) w raportach autora: „ Doświadczenie dydaktyczne w zakresie muzycznej technologii komputerowej”, „Metodologiczne aspekty organizacji nauczania muzyki i technologii komputerowych”, „ Stworzenie multimedialnego samouczka dotyczącego podstaw muzyki elektronicznej”(z pokazem), „Technologie komputerowe w edukacji muzycznej i estetycznej uczniów i studentów”; na międzynarodowych konferencjach instrumentalnych w Rosyjskim Instytucie Historii Sztuki: „Tradycyjne metody w dziedzinie kultury instrumentalnej (teoria muzyki, wykonawstwo, pomoce dydaktyczne) i komputerowych technologii muzycznych (raport i prezentacja nagrań dźwiękowych muzyki elektronicznej)” Technologia i oprogramowanie muzyki komputerowej»; sympozja międzyuczelniane w Państwowym Przedsiębiorstwie Jednostkowym w Petersburgu „Rola współczesnej muzyki i technologii komputerowych w procesie edukacyjnym opanowania elektronicznych instrumentów klawiszowych”, „ Badanie cech muzycznych starożytnych rosyjskich dzwonów» - wspólny raport z doktorem nauk technicznych, profesorem Petersburskiego Państwowego Przedsiębiorstwa Unitarnego I. A. Aldoshiną i młodszym pracownikiem naukowym sektora oprzyrządowanie RI-II AB Nikanorow; na Międzynarodówce instrumentalny sympozjum " Muzyk kultury tradycyjnej i współczesnej"- "Aranżacja na instrumenty MIDI - nowoczesne podejście do problematyki multiinstrumentalizmu" (RIIII).

Objętość tekstu głównego rozprawy to 207 arkuszy maszynopisu. Rozprawa składa się ze wstępu, trzech rozdziałów i zakończenia, opatrzona jest spisem piśmiennictwa oraz załącznikami z materiałem ilustracyjnym - tabelami wyników badań środowiska przestrzeni wirtualnej dźwięku elektronicznego, obrazami graficznymi poszczególnych próbek oraz panelami roboczymi urządzenia elektryczne.

Konkluzja rozprawy na temat „Teoria i historia sztuki”, Puchkov, Stanisław Władimirowicz

I. O trafności kierunku badawczego z wykorzystaniem techniki komputerowej świadczy choćby fakt, że temat ten był faktycznie przygotowany przez całą praktykę muzykologii teoretycznej i historycznej. Nowe możliwości prowadzenia badań naukowych z wykorzystaniem komputera:

1. Możliwości zastosowania dokładnych metod badawczych w muzykologii.

niekomputerowe»eksperymenty w badaniu pewnych wzorców muzycznych oraz między utworami, które konsekwentnie wykorzystują ilościowo dokładne cechy tych wzorców lub ich nie wykorzystują.

II. Problematyka rejestracji, zapisu i analizy akustycznej bicia dzwonów jest aktualna od dawna. Jednak pojawienie się nowej generacji cyfrowych urządzeń do nagrywania dźwięku, nowych technologii komputerowych do przetwarzania, odtwarzania i nagrywania dźwięku umożliwiło przejście do rozwiązania tego problemu na jakościowo innym poziomie:

Możliwość postawienia zadania odtworzenia, analizy spektralnej i czasowej bicia dzwonów i zapisania ich na nowoczesnych cyfrowych but-cm^x (CD-ROM, DVD, DSD itp.);

Sformułowanie i realizacja zadań renowacji, analizy spektralnej i czasowej próbek dzwonów stało się możliwe dzięki dostępności programu „Wavanal”;

Tworzenie sekwencji muzycznych (sekwencji) imitujących dźwięk dzwonka.

III. Wykorzystanie nowych technologii komputerowych we współczesnej edukacji muzycznej i twórczości muzycznej charakteryzuje się wieloma sprzecznościami, z których główne to:

Przepaść między innowacjami pojęciowymi w zakresie pedagogiki ogólnej i muzyki;

Wymaga to teoretycznych i metodycznych studiów nad możliwościami wykorzystania komputerów w edukacji muzycznej oraz zdobycia praktycznego doświadczenia w wykorzystaniu komputerów w prowadzeniu zajęć z przedmiotów muzycznych, co pozwoli na stworzenie naukowych i metodycznych podstaw dla treści i form edukacji komputerowej i celowo organizować proces zdobywania wiedzy i umiejętności ich praktycznego wykorzystania. Wprowadzenie komputerowych systemów szkoleniowych do procesu edukacyjnego jest jednym ze sposobów na zwiększenie efektywności szkolenia.

1 W przypadku przeciążenia toru dźwiękowego urządzenia rejestrującego dźwięk, zwłaszcza cyfrowego, dochodzi do zniekształcenia sygnału dźwiękowego, tzw. przesterowania, które zakłóca rejestrację dźwięku o wysokiej jakości.

2 Podteksty szum, pierwszy, poziom, kwinta, nominalny. 3

Synteza WavetabJe - synteza falowa. Jest to ogólna nazwa syntezy opartej na próbkowaniu. Metoda WT to zakodowany zestaw przechowywanych próbek dźwiękowych zwanych tablicami fal. Karty dźwiękowe obsługujące tryb Wave Table (WT) implementują rozważaną metodę syntezy. Synteza Wavetable jest również znana jako synteza PCM (modulacja impulsowo-kodowa). 4

Synteza z modulacją częstotliwości (FM) - synteza wykorzystująca modulację częstotliwości. Wynaleziony przez Johna Chowninga (Stanford University, syntezator DX7). Metoda polega na wykorzystaniu prostych, generowanych cyfrowo fal (zwanych falami modulującymi) do kontrolowania innych prostych fal (zwanych nośnikami). Obie fale nazywane są robotnikami (operatorami). Fala nośna określa wysokość dźwięku, natomiast fala modulująca odpowiada za zawartość harmonicznych (barwę dźwięku). W metodzie FM synteza dźwięku o wymaganej barwie odbywa się na zasadzie wzajemnej modulacji sygnałów kilku generatorów częstotliwości audio.

5 W syntezie dźwięku rezonans służy do wzbogacania dźwięku. Rezonans akcentuje częstotliwości wokół punktu odcięcia. Ciekawą opcją jest sytuacja, w której sam filtr zaczyna działać jako oscylator. Dzieje się tak, gdy wartość sprzężenia zwrotnego jest duża. Istnieją różne rodzaje filtrów. Najczęściej spotykany w syntezie jest dolnoprzepustowy, ale w niektórych modelach syntezatorów analogowych, a tym bardziej w urządzeniach cyfrowych, można stosować inne typy - górnoprzepustowy, środkowoprzepustowy i wycięcie. Wszystkie, w taki czy inny sposób, mają na celu „odejmowanie” (odejmowanie) niektórych częstotliwości od oryginalnego sygnału.

6 Element dźwiękowy to funkcjonalnie kompletny, elementarny blok zaimplementowany sprzętowo polifoniczny syntezator odtwarzający dźwięk tylko jednego głosu.

7 EMU8000 - układ do syntezy dźwięku metodą „wave table syntezy” w karcie dźwiękowej Sound Blaster AWE32 lub Sound Blaster 32.

8 Oscillator [skrót od OSC, także VCO (Voltage Controlled Oscillator) lub DCO (Digital Controlled Oscillator)] - VCO lub „oscylator sterowany napięciem”, został zaprojektowany przez Roberta Mooga we współpracy z Herbertem Deutschem (Herbert Deutsch) pierwszy na świecie modułowy syntezator analogowy, Moog Modular System. Termin VCO odzwierciedla zasadę tworzenia tonu podstawowego: dzięki zastosowaniu tranzystorów, po naciśnięciu określonego klawisza na wejście oscylatora przykładane jest napięcie sterujące, a na wyjściu generowany jest proporcjonalny sygnał częstotliwości. Zazwyczaj napięcie wzrastało o 1 wolt na oktawę; wzrost napięcia sterującego o 1/12 V odpowiadał zmianie częstotliwości o pół tonu.

9 Próbka (próbka) - 1) Dźwięk nagrany w formacie cyfrowym do wykorzystania jako barwa (patch, instrument itp.) na syntezatorze lub module dźwiękowym. Czasami nazywa się to „ samplowany dźwięk» (Samplowany dźwięk). 2) Plik audio, który jest używany jako „cegiełka” do tworzenia nowoczesnej muzyki tanecznej (na przykład wzorzec melodyczny bębna lub basu, fraza). Zobacz także Pętla.

10 Odnosi się to do faz dynamicznego rozwoju dźwięku, graficznie odzwierciedlonych w postaci Obwiedni (obwiedni) [krzywej opisującej zmianę wartości dowolnego parametru dźwięku (głośność, wysokość, barwa)].

11 Rezonansowy filtr dolnoprzepustowy (rezonans, Q). Odcięcie odcina harmoniczne, a po całkowitym zamknięciu słychać tylko podstawową harmoniczną. Częstotliwość odcięcia w syntezatorach rzadko jest określana przez określoną wartość w Hz, częściej jest to pewna skala logarytmiczna, której maksymalna wartość może wynosić 10 (kreska na przednim panelu) i liczba na wyświetlaczu w odpowiednim menu. Jednak maksymalna wartość zawsze oznacza w pełni otwarty filtr. Filtr rezonansowy nie występuje w każdym instrumencie. W szczególności nie we wszystkich syntezatorach analogowych, a tym bardziej w samplerach. W urządzeniach cyfrowych filtry, z wyjątkiem wyjściowych, realizowane są programowo: ich funkcję, wraz ze wszystkimi innymi, realizuje wyspecjalizowany układ DSP (Digital Signal Processor). Typowe terminy to filtr i VCF (filtr sterowany napięciem).

12 Dwa najważniejsze parametry każdego filtra to częstotliwość odcięcia (odcięcie filtra) i rezonans, czyli Q, czyli emfaza, czyli generacja. Ten filtr jest sprzężeniem zwrotnym (sprzężeniem zwrotnym): w obwodzie filtra (lub odpowiednim zestawie instrukcji komputera).

13 Być może konieczne jest wyjaśnienie, co należy rozumieć przez „ część sygnału audio". W elemencie dźwiękowym sygnał podąża dwiema ścieżkami: pierwsza prowadzi bezpośrednio do wyjścia procesora efektów, a druga przez procesor efektów. Na pierwszej ścieżce dźwięk nie ulega żadnym zmianom. Na przykład przechodząc przez drugiego pugi, może całkowicie zmienić się w echo. Potem ścieżki te ponownie się zbiegają: oryginalny dźwięk miesza się z jego echem. Oczywiście głębię efektów można regulować zmieniając poziom sygnału podążając drugą ścieżką.

14 Pogłos to jeden z najpopularniejszych efektów dźwiękowych. Istota pogłosu polega na tym, że oryginalny sygnał dźwiękowy jest miksowany z jego kopiami opóźnionymi względem niego o różne przedziały czasowe.

Chorus (Chorus) - efekt „refrenu”, zwykle uzyskiwany przez nieznaczne przesunięcie wysokości tonu, modulację wielkości przesunięcia, zmiksowanie przetworzonego sygnału z bezpośrednim.

15 DAC, (ADC) - przetwornik sygnału cyfrowo-analogowego (przetwornik anapo-cyfrowy).

16 S/PDIF to cyfrowy format interfejsu firmy Sony i Phillips. Standard przesyłania danych z jednego urządzenia cyfrowego do drugiego.

17 ADSR - cztery fazy dynamicznego rozwoju dźwięku, graficznie odzwierciedlone w postaci Envelope (envelope) - krzywej opisującej zmianę wartości dowolnego parametru dźwięku (głośność, wysokość, barwa). Jest on przedstawiony w układzie współrzędnych, w którym pionowo wykreślono parametr dynamiki rozwoju dźwięku, a poziomo czas.

18 Oczywiście nie ma tu kontrolerów w sensie fizycznym, wszystkie ustawienia to numery, które są zapisane w pamięci sterownika obsługującego EMU8000.

19 Dla lepszego zrozumienia tego procesu należy podać przykład z życia codziennego. Każdy używa kranu. Ciśnienie wody charakteryzuje się położeniem uchwytu kranu. Narysujmy analogię między kranem a modulatorem w układzie EMU8000: kran - modulator, woda - sygnał źródłowy (na przykład wibracje o niskiej częstotliwości z LF01), pokrętło - sygnał modulujący (na przykład LF01 na Pitch), pokrętło position – parametr regulacji, czyli liczba charakteryzująca głębokość modulacji (w naszym przykładzie mówimy o modulacji częstotliwości – vibrato częstotliwości).

20 Sterowniki to darmowe oprogramowanie. Sukces producentów sprzętu konsumenckiego opiera się na braku problemów z jego obsługą programową.

21 Pętla (pętla) - fragment pliku audio (lub całego pliku), który jest odtwarzany wielokrotnie (cyklicznie). We współczesnej muzyce tanecznej plik dźwiękowy, na podstawie którego budowana jest część muzyczna utworu (bas, perkusja itp.). Zobacz także Próbka.

22 Polecenie Program Change (lub Patch Change) jest używane w edytorach muzycznych do wybierania banku brzmień i numeru presetu.

23 Polifonia karty dźwiękowej - liczba jednocześnie odtwarzanych „głosów” instrumentu (syntezatora karty dźwiękowej). Może różnić się od liczby nut granych w tym samym czasie, ponieważ niektóre dźwięki instrumentów mogą wykorzystywać kilka głosów jednocześnie.

24 Coarse Tune (strojenie) — zmiana ogólnego brzmienia syntezatora.

25 Filtr (filtr) - urządzenie lub program do izolowania dźwięków o określonej częstotliwości lub paśmie częstotliwości ze złożonego dźwięku. Zjawisko rezonansu zwiększa działanie filtra. We współczesnej inżynierii dźwięku filtry rezonansowe służą do zmiany barwy dźwięku. Na przykład, gdy charakterystyka filtra jest okresowo zmieniana, uzyskuje się efekt „wah-wah”.

26 Najczęściej używany cyfrowy format plików audio.

27 Dotyczy to parametrów cyfrowego formatu audio (standard 16 – wielkość kwantyzacji, mono – dźwięk monofoniczny).

Prace z pierwszego roku studiów. Aranżacje: Gawot Głazunowa z „Służącej Panny”, wiejski chór Bordina z „Księcia Igora” „Odlecieć na skrzydłach wiatru”.

Wniosek

Za wynik badań należy uznać ujawnioną prawidłowość historycznej ewolucji instrumentów muzycznych, głęboko związaną z procesami twórczymi zachodzącymi w dziedzinie kompozycji i kompozycji, sztuk scenicznych, muzykologii i edukacji, wyrażoną jako:

1) w poszukiwaniu i doskonaleniu języka muzycznego, wzbogacaniu się o różnorodne uspokajający metody, techniki i środki fakturowania utworów muzycznych, a co za tym idzie narodziny instrumentów elektronicznych – w zasadzie nowe produkcja dźwięku, formowanie dźwięku i wymagające od wykonawcy zasadniczo innego podejścia do kreatywności;

2) w zmianie koncepcji podejścia do twórczości, wyrażającej się w rosnącej potrzebie włączania wiedzy z dziedziny techniczno-technologicznej, akustyki muzycznej i informatyki do nauk muzyczno-teoretycznych.

W badaniu udało się:

identyfikować specyficzne formy organizacji systemu muzycznej wiedzy komputerowej w jej związku z tradycyjną sztuką muzyczną;

Porównaj etapy i kierunki rozwoju muzyki technicznej (przedkomputerowej) i współczesnej muzyki elektronicznej, ich możliwości artystyczne i technologiczne;

Eksplorować i uogólniać współczesne doświadczenia nauczania z wykorzystaniem muzycznych technologii komputerowych;

Ujawnić terminologię nowoczesnych instrumentów muzycznych (technologie MIDI, sekwencjonowanie) i sklasyfikować współczesne EMI ze zintegrowanymi technologiami muzyczno-komputerowymi;

Testowanie metod adaptacji próbek dźwiękowych instrumentacji tradycyjnej w wirtualnym środowisku muzycznych technologii komputerowych.

W toku badań zidentyfikowano i uwzględniono wzajemne oddziaływanie i wzajemne powiązania szerokiego wachlarza możliwości technologii komputerowych w kontekście nowej instrumentacji i jej miejsca we współczesnej sztuce muzycznej.

W toku badań udało się wykazać, że rozwój nowoczesnych instrumentów muzycznych opiera się na wzajemnym oddziaływaniu i powiązaniu szerokiego zakresu możliwości technologii i sprzętu komputerowego z procesami artystycznymi we współczesnej sztuce muzycznej. Nowe narzędzia twórcze stymulują integrację w muzykologię metod naukowych, które wcześniej uważano za prerogatywy nauk ścisłych, dokonując tym samym przejścia badań na wyższy poziom wiedzy o utworze muzycznym, gdy nauka staje się narzędziem do studiowania sztuk performatywnych a nie tylko system wiedzy o technologii wytwarzania dźwięku i jego percepcji.

Badanie muzycznych technologii komputerowych wykazało, że podstawowa różnica między nowoczesnym elektronicznym instrumentem muzycznym (EMR) a tradycyjnymi poglądami na temat możliwości naturalnych instrumentów muzycznych jest następująca:

W obecności ogromnej, naprawdę niewyczerpanej różnorodności barw i ich odcieni;

EMR jest w stanie symulować sztuczne efekty akustyczne różnego rodzaju pomieszczeń (HALL, ROOM, PLATE itp.), umieszczając instrumenty muzyczne w różnych akustycznie kolorowych wirtualnych pokojach;

W możliwości utrwalenia tekstu muzycznego w postaci sekwencji zdarzeń muzycznych z odtworzeniem palety dźwiękowej barwy, metrorytmiczny, dynamiczna itp. muzyka (sekwencjonowanie MIDI)

Umiejętność kwantyzacji wzoru rytmicznego tekstu muzycznego, polegająca na dopasowaniu wzoru rytmicznego melodii lub teksturowanego akompaniamentu (jedna z funkcji sekwencjonowania MIDI);

Konwersja sekwencji MIDI na tekst muzyczny w postaci klawesynu, partytury;

Funkcja SKALE, która pozwala na modalne modyfikacje skali oryginału muzycznego.

W konsekwencji zasadnicza różnica między współczesnym użytkownikiem nagłośnienia muzycznego i sprzętu komputerowego a działalnością akademickiego muzyka-wykonawcy polega na nowym podejściu do procesu twórczego, gdyż aby stworzyć obraz dźwiękowy konkretnego instrumentu, potrzebuje on dokładnego , a nie intuicyjną wiedzę na temat zastosowania określonej techniki w kontekście muzycznym, ponieważ muzyka w technice komputerowej jest zaprogramowana.

Można stwierdzić, że metody artykulacji podczas gry na klawiaturze MIDI powinny być stosowane z uwzględnieniem specyfiki użytego brzmienia (barwy). Artykulacja dźwięku w syntezatorze zależy od zaprogramowania parametrów wykonawczych (ustawienia pokręteł lub kontrolerów). Na przykład modulacja (modulacja), portamento (portamento lub glide), glissando (glissando), pedał podtrzymania (pedał podtrzymania) itp. Artykulacja dźwięku w syntezatorze odbywa się za pomocą pewnych technologicznych metod programowania parametrów wydajności EMR.

Praca doktorska wykazała, że ​​integracja technologii informatycznych z polem badawczym muzykologii przejawia się w komputerowych metodach badania właściwości akustycznych próbek dźwiękowych. Stosowanie precyzyjnych metod badawczych w muzykologii nie jest niczym nowym w nauce o muzyce. Jednak w drugiej połowie XX wieku nastąpiło znaczne wzbogacenie treści tych metod oraz wzrost ich roli i znaczenia w praktyce badawczej. O trafności kierunku badawczego z wykorzystaniem techniki komputerowej świadczy chociażby fakt, że temat ten był faktycznie przygotowany przez całą praktykę muzykologii teoretycznej i historycznej.

Ujawniono nowe możliwości prowadzenia badań naukowych z wykorzystaniem komputera:

1. Możliwości zastosowania dokładnych metod badawczych w muzykologii.

2. Bardziej wyraźny charakter (który przejawia się zarówno w metodach, jak iw wynikach badań) nie występuje pomiędzy „komputerem” a „ niekomputerowe»eksperymenty w badaniu pewnych wzorców muzycznych, a między utworami konsekwentnie wykorzystując ilościowo dokładne cechy tych wzorców lub ich nie wykorzystując.

3. Wyraźnie zademonstrowano szereg konkretnych możliwości metod akustycznych, ale przede wszystkim postawiono pytania o zakres zastosowania dokładnych metod eksperymentalnych, o metodologię badań naukowych oraz stwierdzono konieczność uwzględnienia uwzględnić specyfikę sztuki muzycznej.

Niniejsze opracowanie ujawnia problemy rejestracji, konserwacji i analizy akustycznej bicia dzwonów, które są aktualne od dłuższego czasu. Jednak pojawienie się nowej generacji cyfrowych urządzeń do nagrywania dźwięku, nowych technologii komputerowych do przetwarzania, odtwarzania i nagrywania dźwięku umożliwiło przejście do rozwiązania tego problemu na jakościowo innym poziomie:

Możliwość postawienia zadania odtworzenia, analizy spektralnej i czasowej bicia dzwonów oraz zapisania ich na nowoczesnych nośnikach cyfrowych (CD-ROM, DVD, DSD itp.);

Sformułowanie i realizacja zadań renowacji, analizy spektralnej i czasowej próbek dzwonka stała się możliwa dzięki dostępności programu Wavanal;

Stworzenie elektronicznego banku próbek dźwięków dzwonów, realizowane za pomocą muzycznych programów komputerowych;

Opracowanie metody tworzenia emulatora dzwonka elektronicznego;

Tworzenie sekwencji muzycznych (sekwencji) imitujących dźwięk dzwonka.

Na długo przed pojawieniem się komputerów muzykolodzy z różnych krajów wiele uwagi poświęcali teoretycznym i praktycznym zagadnieniom wykorzystania środków technicznych w procesie edukacyjnym. Wraz z pojawieniem się komputerów osobistych w latach 80. w naszym kraju zaczęto dyskutować o metodologicznych problemach wykorzystania komputerów w procesie edukacyjnym. Wykorzystanie nowych technologii komputerowych we współczesnej edukacji muzycznej i twórczości muzycznej charakteryzuje się wieloma sprzecznościami, z których główne to:

Przepaść między innowacjami pojęciowymi w zakresie pedagogiki ogólnej i muzycznej;

Konieczność włączania nowych technologii informatycznych we współczesną kulturę muzyczną i ich brak w muzycznych programach edukacyjnych.

Wymaga to teoretycznych i metodycznych studiów nad możliwościami wykorzystania komputerów w edukacji muzycznej oraz zdobycia praktycznego doświadczenia w wykorzystaniu komputerów w prowadzeniu zajęć z przedmiotów muzycznych, co pozwoli na stworzenie podstaw naukowych i metodycznych dla treści i form zajęć komputerowych i celowo organizować proces nabywania wiedzy i umiejętności, ich praktycznego wykorzystania. Wprowadzenie komputerowych systemów szkoleniowych do procesu edukacyjnego jest jednym ze sposobów na zwiększenie efektywności szkolenia.

1) Wyniki retrospektywnej analizy powstawania i rozwoju komputerowych technologii muzycznych, wyrażone w: a) periodyzacji zmian stylów muzycznych, technik kompozytorskich, technologii komponowania muzyki; b) charakterystyka czynników, które doprowadziły do ​​rozwoju tego typu technologii (informatyzacja działalności muzycznej, technizacja twórczych procesów muzycznych itp.)

2) Teoretyczna koncepcja muzycznych technologii komputerowych jako nowego zjawiska w sztuce, w tym: a) zapisy:

O prawidłowościach historycznej ewolucji instrumentów muzycznych (proces przyspieszania zmian stylów muzycznych i twórczych metod komponowania muzyki, spiralna zasada opanowywania nowych możliwości brzmieniowych instrumentów elektronicznych itp.)

O specyfice współczesnych instrumentów elektronicznych, determinowanej zasadami wydobywania dźwięku, kształtowania dźwięku oraz zasadniczo odmiennym podejściem do pracy wykonawcy;

O muzycznych technologiach komputerowych jako nowym narzędziu twórczości, czynniku stymulującym integrację w muzykologię metod naukowych, które wcześniej uważano za prerogatywę nauk ścisłych i powodującym przejście badań na wyższy poziom wiedzy o sztuce muzycznej; b) klasyfikacja i charakterystyka obszarów zastosowań nowoczesnych narzędzi informatycznych:

Twórczość muzyczna - komputeryzacja działalności muzycznej (tworzenie, nagrywanie i wykonywanie muzyki współczesnej);

nauka o sztuce muzycznej, w której nowe technologie umożliwiają identyfikację nowych wzorców, integralnych cech muzyki, algorytmizację różnych rodzajów czynności kompozytorskich i wykonawczych, uzyskanie obiektywnych cech faktury muzycznej (agogiki) i innych składników twórczości;

Nauczanie sztuki muzycznej – analiza utworów muzycznych, przyswajanie historii muzyki i sztuk performatywnych, teoria muzyki, opanowanie sztuki instrumentacji i aranżacji itp., gdzie narzędzia te stanowią rozwiązanie kompleksu pedagogicznego, twórczego , problemy psychologiczne i techniczne.

Lista referencji do badań rozprawy doktorskiej Kandydat historii sztuki Puchkov, Stanisław Władimirowicz, 2002

1. Wydania indywidualne

2. Banshchikov G. I. Prawa oprzyrządowania funkcjonalnego. - Petersburg: Kompozytor, 1997. 240 s.

3. Błagowieszczenskaja JI. D. Dzwonnica z wyborem dzwonów i biciem dzwonów w Rosji: Streszczenie pracy. dis. . cand. Historia sztuki/ Leningrad. państwo Instytut Teatru, Muzyki i Kinematografii im. NK Czerkasow. D., 1990. - 17 s.

4. Belyavsky A. G. Teoria dźwięku w zastosowaniu do muzyki: podstawy fizyki. i muzyka. akustyka. M.; D., pani wydawnictwo, 1925. - 247 s.

5. Buluchevsky Yu.S., Fomin B.C. Krótki słownik muzyczny. - JI.: Muzyka, 1988.-461 s.

6. Veshchitsky P. O. Instrukcja samouczka do gry na gitarze sześciostrunowej. M.: Sow. kompozytor, 1975. - 115 s.

7. Verbitsky A. A., Tsekhansky V. M. Technologie informacyjne w tłumaczeniu kultury muzycznej // Informatyka i kultura: sob. naukowy tr. - Nowosybirsk, 1990. 231 s.

8. Volodin A. A. Elektroniczne instrumenty muzyczne. M.: Energia, 1970.-145 s.

9. Voloshin VI, Fedorchuk LI Instrumenty elektromuzyczne. M.: Energia, 1971.- 143 s.

10. Volkonsky A. M. Podstawy temperamentu. M.: Kompozytor, 1998. - 91 s.

11. Garbuzov N. A. Słyszenie intonacyjne wewnątrzstrefowe i metody jego rozwoju. M.; L.: Muzgiz, 1951. - 64 s.

12. Garbuzov N. A. Strefowy charakter słyszenia tonu. M.; L.: AN SSSR, 1948. - 84 s.

13. Garbuzov N. A. Strefowa natura tempa i rytmu. M.; L.: AN SSSR, 1950. -75 s.

14. Garbuzov N. A. Strefowa natura słuchu tonalnego. -M.; L.: AN SSSR, 1950. 143 s.

15. Garbuzov N. A. Strefowa natura dynamicznego słyszenia. M.: Muzgiz, 1955. - 108 s.

16. Garbuzov N. A. Strefowa natura słyszenia barwy. M.: Muzgiz, 1956. - 71 s.

17. Gaklin DI, Kononowicz JI. M., Korolkov V. G. Nadawanie stereofoniczne i nagrywanie dźwięku. M.; JL: Gosenergoizdat, 1962. - 127 s.

18. Gertsman E. V. Antyczne myślenie muzyczne. L.: Muzyka, 1986. - 224 s.

19. Gertsman E. V. Muzykologia bizantyjska. L.: Muzyka, 1988. - 254 s.

20. Ginzburg LS Tartini Giuseppe // Encyklopedia muzyczna. M., 1981.-T. 5,-stb. 445-448.

21. Gulyants E. I. Znajomość muzyki. Moskwa: Akwarium, 1997. - 128 s.

22. Gordeev O. V. Programowanie dźwięku w systemie Windows. SPb. i inni: BHV St. Petersburg, 1999. - 380 s.

23. Grigoriev L. G., Platek Ya. M. Nowocześni pianiści. M.: Sow. kompozytor, 1985. - 470 s.

24. Dubovsky I., Evseev S., Sposobin I., Sokolov V. Podręcznik harmonii. - M.: Muzyka, 1969. 456 s.

25. Dobkina Yu A. Uwagi o harmonii. Petersburg: Kompozytor, 1994. - 139 s.

26. Dmitryukova Yu G. Muzyka elektroniczna i Karlheinz Stockhausen / Moskwa. konserwatorium. -M., 1996. 58 s. Dep.:: NPO Informkuptura Ros. państwo b-ki nr 3029.

27. Dubrovsky D. Yu Komputer dla muzyków amatorów i zawodowych. M.: TRIUMF, 1999. - 398 s.

28. Demenko B. V. Polirytm. Kijów: Muzyczna Ukraina, 1988. - 120 s.

29. Erokhin V. A. De musica instramentahs: Niemcy - 1960-1990: Analityk. eseje. M.: Muzyka, 1997. - 398 s.

30. Evseev G. A. Muzyka w formacie MP3. M.: DESS COM: Inforkom-Press, 1999.-223 s.

31. Zhivaikin P. P. 600 programów dźwiękowych i muzycznych. Petersburg: BHV St. Petersburg, 1999. - 605 s.

32. Zaripov R. X. Wyszukiwanie maszynowe opcji w modelowaniu procesu twórczego. M.: Nauka, 1983. - 232 s.

33. Zaripov R. X. Cybernetyka i muzyka. M.: Nauka, 1971. - 235 s.

34. Zagumennov A.P. Komputerowe przetwarzanie dźwięku. M.: DMK, 1999. - 384 s.

35. Zuev B. A. Syntezator programowy Rebirth RB-338. M.: ECOM, 1999. -206 s. - (kompozytor komputerowy).

36. Kovalgin Yu.A., Borisenko A.V., Genzel G.S. Akustyczne podstawy stereofonii. -M.: Komunikacja, 1978. 336 s.

37. Kohoutek Ts. Technika kompozytorska w muzyce XX wieku. M.: Muzyka, 1976. -367 s.

38. Kozyurenko Yu I. Nagrywanie dźwięku z mikrofonu. M.: Energia, 1975. - 120 s.

39. Kozyurenko Yu I. Sztuczny pogłos. M.: Energia, 1970. - 80 s.

40. Korsunsky S. G., Simonov I. D. Elektryczne instrumenty muzyczne. M.; L.: Gosenergoizdat, 1957. - 64 s.

41. Kruntyaeva TS, Molokova NV Słownik zagranicznych terminów muzycznych. M.; Petersburg: Muzyka, 1996. - 182 s.

42. Kunin E. Tajniki rytmu w muzyce jazzowej, rockowej i popowej. M.: Mega-Service, 1997. - 56 s.

43. Kuzniecow L. A. Akustyka instrumentów muzycznych: sygn. - M.: Legprombytizdat, 1989. 367 s.

44. Levin L. S., Plotkin M. A. Cyfrowe systemy transmisji informacji. -M.: Radio i łączność, 1982. 215 s.

45. Lysova Zh. A. Anglo-rosyjski i rosyjsko-angielski słownik muzyczny. - Petersburg: Lan, 1999.-288 s.

46. ​​​​Mikhailov A.G., Shilov V.L. Praktyczny angielsko-rosyjski słownik muzyki elektronicznej i komputerowej. -M.: Małe przedsiębiorstwo "Rus": Firma "MAG", 1991. 115 s.

47. Michajłow M. K. Styl w muzyce. L.: Muzyka, 1981. - 262 s.

48. Mikheeva L. V. Słownik muzyczny w opowiadaniach. M.: TERRA, 1996. - 167 s.

49. Mol A., Fouquet V., Kassler M. Sztuka i komputery. M.: Mir, 1975. - 556 s.

50. Muzyka: Wielka encyklopedia. słowa. / Rozdz. wyd. GV Keldysz. Moskwa: Bolszaja Ros. Encykl., 1998.-671 s.

51. Nazaikinsky E. V. O tempie muzycznym. M.: Muzyka, 1965. - 95 s.

52. Nazaikinsky E. V. Akustyka muzyczna // Encyklopedia muzyczna. -M., 1973.-T. 1. Stb. 86-89.

53. Nazaikinskiy E.V. Dźwiękowy świat muzyki. M.: Muzyka, 1988. - 254 s.

54. Nikanorov A. B. Bicie dzwonu Wielkiej Dzwonnicy Klasztoru Jaskiń Pskowskich // Muzyka dzwonów: sob. badania i materiały / Ros. Instytut Historii Sztuki. SPb., 1999. - S. 62 -73.

55. Nikonov A. V. Konsole do miksowania dźwięku / Vsesoyuz. zaawansowane szkolenie pracowników radiofonii i telewizji. M., 1986.-110 s.

56. Nikamin V. A. Formaty cyfrowego zapisu dźwięku. Petersburg: CJSC „Elbi”, 1998. - 264 s.

57. Organizacja cyfrowego interfejsu MIDI: opis i implementacja / wyd. wyd. V. Yu Mateu. M.: Preprint Instytut Problemów Informatyki Akademii Nauk ZSRR, 1988.-28 s.

58. Petelin R. Yu., Petelin Yu. V. Cakewalk Pro Audio 9: Secrets of Mastery. Petersburg: BHV St. Petersburg, 2001. - 432 s.

59. Petelin R. Yu., Petelin Yu. V. Komputer muzyczny: tajemnice mistrzostwa. Petersburg: BHV St. Petersburg, 2001. - 608 s.

60. Petelin R. Yu., Petelin Yu. V. Gadżety i wtyczki Cakewalk. Petersburg: BHV St. Petersburg, 2001. - 272 s.

61. Petelin R. Yu., Petelin Yu. V. Aranżacja muzyki na PC. Petersburg: BHV St. Petersburg, 1999.-272 s.

62. Petelin R. Yu., Petelin Yu. V. Studio dźwiękowe na PC. Petersburg: BHV St. Petersburg, 1999. - 256 s.

63. Petelin R. Yu., Petelin Yu. V. Osobista orkiestra. w komputerze osobistym. Petersburg: Wielokąt, 1997. - 280 s.

64. Petelin R. Yu., Petelin Yu. V. Osobista orkiestra w PC. SPb.: BHV St. Petersburg, 1998.-240 s.

65. Petelin R. Yu., Petelin Yu. V. Muzyka na PC Cakewalk. Petersburg: BHV-St.Petersburg, 1999. - 512 s.

66. Porvenkov V. G. Akustyka i strojenie instrumentów muzycznych.-M.: Muzyka, 1990.- 189 s.

67. Rabin D. M. Muzyka i komputer: studio stacjonarne. Mińsk: Potpourri, 1998.-271 s.

68. Rabinovich A. V. Krótki kurs akustyki muzycznej. M.: Stan. wydawnictwo, 1930 r. - 163 s.

69. Pare Yu N. Akustyka w systemie sztuki muzycznej: Dis. w formie naukowej raport . Doktor sztuki. M., 1998. - 80 s.

70. Brown R. Sztuka tworzenia muzyki tanecznej na komputerze. M.: ECOM, 1998. - 447 s. - (kompozytor komputerowy).

71. Sakhaltueva, OE, O niektórych wzorach intonacji w związku z formą, dynamiką i harmonią, Tr. Katedra Teorii Muzyki Konserwatorium Moskiewskiego. PI Czajkowski. M., 1960. - Wyd. 1. - S. 356-378.

72. Sposobin IV Elementarna teoria muzyki. M.: Kifara, 1996. - 199 s.

73. Simonov ID Nowość w elektrycznych instrumentach muzycznych. M.; L.: Energia, 1966.-48 s.

74. Sokolov A. S. Kompozycja muzyczna XX wieku: dialektyka twórczości. M.: Muzyka, 1992. - 227 s.

75. Soonvald J. Skale i współbrzmienia eufonicznego systemu muzycznego w zakresie analizy grafo-matematycznej. Tartu, 1964. - 178 s.

76. Terentyeva N. A., Gorbunova I. B., Zabolotskaya I. V. Zalecenia metodologiczne dla kursu Nowe technologie informacyjne we współczesnej edukacji muzycznej / Ros. państwo ped. un-t im. AI Hercen. Petersburg: LLP „Anatolia”, 1998.-73 s.

77. Taylor Ch. A. Fizyka dźwięków muzycznych. M.: Przemysł lekki, 1976. -184 s.

78. Theremin JI. C. Fizyka i sztuka muzyczna. Moskwa: Wiedza, 1966. - 32 s.

79. Ulyanich V. S. Muzyka komputerowa a rozwój nowego środowiska artystycznego i ekspresyjnego w sztuce muzycznej: Streszczenie pracy magisterskiej. dis. cand. historia sztuki / Ros. akademik do nich muzyka. Gnesiny. M., 1997. - 24 s.

80. Frank G. Ya Sześć rozmów o dźwięku: (Inżynier dźwięku w telewizji). Moskwa: Sztuka, 1971. - 87 s.

81. Kholopov Yu. N. Eseje o współczesnej harmonii. M.: Muzyka, 1974. - 287 s.

82. Kholopov Yu. N., Meshchaninov P. N. Muzyka elektroniczna // Muzyka. encyklika -M., 1982. T. 6. - Stb. 514-517.1. Artykuły z czasopism

83. Artemyev A. Co to jest „ANS” // Sow. muzyka. 1962. - nr 2. - S. 35-37.

84. Aldoshina I. Podstawy psychoakustyki. Część 3: Analiza słuchowa współbrzmień i dysonansów // Inżynier dźwięku. 1999. - nr 9. - S. 38-40.

85. Andrianov S., Jakowlew K. Fabryka dźwięku zarządzana przez PCI // Mir PC. 1999. - nr 7. - S. 20-31.

86. Artemiev E. Muzyka XX wieku: historia instrumentów // Music Box. -1998. nr 1. - S. 66-70; 1998. - nr 2. - S. 74-78.

87. Arkhipova E. Muzyka w sieci // Świat Internetu. 1998. - nr 5. - S. 22-25.

88. Afanasiev V. W kwestii sprawdzania harmonii rachunkowości // Show - Master. 1997. - nr 3. - S. 97.

89. Batov A. Formaty plików dźwiękowych // Inżynier dźwięku. 1999. - nr 8. - S. 40-42; nr 9. - S. 38-40; 1999. - nr 30. - S. 13.

90. Balgarov I.A. itp. Stereofoniczna reprodukcja dźwięku // Radio i komunikacja - 1993.-S. 96.

91. Batygov M. Pięć płyt dźwiękowych dla miłośników gier // Komputer. -1998. -№8.-S. 88-91.

92. Bednyakov M. Płyty dźwiękowe Yamaha // Computer Press. 1997. -№11. -Z. 82-84.

93. Bednyakov M. Poznaj MAXI SOUND 64 // Okręt podwodny, łódź. 1998. - nr 3.-S. 37-39.

94. Belsky V.N., Nikonov A.V., Churilin V.V. Struktura ścieżek dźwiękowych domów radiowych i ośrodków telewizyjnych // Radio i telewizja. 1973. - nr 6. - S. 36-43.

95. Beluntsov V. Jest mężczyzna!: Wywiad z Eduardem Artemyevem // Computerra. 1997. - nr 46. - S. 52-55.

96. Beluntsov V.O. Z muzycznych wrażeń: (O ukrytym mieście M. McNabba) // Computerra. 1997. - nr 46. - S. 50.

97. Beluntsov V.O. Synphonia/mus: (notatki w notatniku muzycznym) // Computerra. -1997.-№46.-S. 32-49.

98. Belyaev V. M. Instrumenty mechaniczne // Sovrem, muzyka. 1926. - nr 17.-S. 24.

99. Boboshin V. Programowanie bębnów. Programy Notator i Cubase jako instruktor // IN/OUT. 1997. - nr 23. - S. 54, 56; Nr 24. - S.71.

100. Edytor oprogramowania Boboshin V. Voyetra Digital Orchestrator Plus v.2.1 dla dźwięku cyfrowego // IN/OUT. 1998. - nr 25. - S. 91-92.

101. Bogachev G. Interfejsy MIDI Midiman // Muzyka. sprzęt. 1997. - nr 27.-S. 35-37.

102. Bogdanov V. Multimedialny kalejdoskop: przegląd najbardziej obiecujących multimediów. technologie i urządzenia // Computer Press. 1998. - nr 5. - S. 28-42.

103. Borzenko A. Multimedia z Yamaha // Computer Press. 1996. - nr 4. - S. 78-79.

104. Boboshin V. Cakewalk Audio FX3 // IN / OUT. 1999. - nr 30. - S. 100-101.

105. Weizenfeld A. Przenośne studia cyfrowe// Inżynier dźwięku.-1999.-№7.-S. 3-11.

106. Gavrilchenko A. Muzyka i MPEG-3 // Ty i twój komputer. 1998. - nr 8.-S. 18-19.

107. Gavrilchenko A. Pierwsze dźwięki // Ty i twój komputer. 1998. - nr 10. -S. 14-15.

108. Goltsman M., Pervin Yu., Pervina N. Elementy alfabetyzacji muzycznej w przebiegu wczesnej edukacji informatycznej // Informatyka i edukacja. 1991.- nr 4. S. 25; nr 5. - S.35; Nr 6. - S.22.

109. Gorbunov S. Kto jest kim w świecie muzyki // Show-Master. - 1997. - Nr 1. S. 94-95.

110. Gorbunkov V. Komputer // Książka. kamizelka 1998. - nr 1. - S. 22-23.

111. Dansa A. Nieograniczone możliwości formatu MIDI, XG // Computer Press. 1997. - nr 9. - S. 284-290.

112. Demyanov A. I. Cyfrowe nagrywanie magnetyczne wideo i audio // Technologie i środki komunikacji. 1998. - nr 3. - S. 78-80.

113. Desmond M. Pierwsze karty dźwiękowe PCI // PC World. 1998. - nr 4. - S. 46.

114. Desmond M. Karta dźwiękowa PCI - brzmi dumnie // PC World. 1998. - nr 7. - S. 40-41.

115. Dubrovsky D. Nagrywanie domowe - „cyfrowe” czy „analogowe”? // Wystawa - Master.-1997.-№2.-S. 101-103.

116. Dubrovsky D. Najwyższej klasy karty dźwiękowe, nowe technologie, nowe problemy // Hard "Soft. 1998. - nr 7. - str. 26-32.

117. Erokhin A. Własna muzyka // Komputer domowy. 1999. - nr 8. - S. 1619.

118. Zhivaikin P. Programy muzyczne // Komputer domowy. 1999.- Nr 7. S. 30-31.

119. Zhivaikin P. Sound Forrge 3 Od - potężny edytor dźwięku dla systemu Windows // Show - Master. 1997. - nr 1. - S. 24-25.

120. Zhivaikin P. Komputer drukuje notatki z głosu // Show-Master. 1998.- nr 2. S. 84-86.

121. Zhivaikin P. Krótki przegląd programów muzycznych na komputery PC // Computer Press. 1998. - nr 5. - S. 106-116; nr 7. - S. 136-143; Nr 9. S. 255-256.

122. Zhivaikin P. Muzyczne programy szkoleniowe // Computer Press.- 1998.-№9.-S. 94-104.

123. Zaripov P. X. Komputer w badaniu i komponowaniu muzyki // Natura. 1986. - nr 8. - S. 59-69.

124. Zaripov R. Kh Tryb dialogu w muzyce oparty na interwałowo-metrycznej strukturze intonacji // Tekhn. cybernetyka. 1985. - nr 5. - S. 115-128.

125. Zaripov R. X. Maszynowa kompozycja melodii piosenek // Tekhn. cybernetyka - 1990. - nr 5. -Z. 119-125.

126. Zaritsky D. Muzyka komputerowa: prosty algorytm konstruowania improwizacji na wykresie sekwencji akordów // Modele i systemy przetwarzania informacji. 1987. - Wydanie. 6. - S.45.

127. Zemlinsky JI. Nagrywanie cyfrowe konieczne i wystarczające // Music Box. 1997. - nr 4. - S. 60-64.

128. Zemlinsky JI. Pierwsze kroki // Music Box. 1997. - nr 4. - S. 66-67.

129. Zemlinsky J1. Metody syntezy elektronicznej // Music Box. 1998. - Nr 2.- S. 79-83.

130. Zuev B. Sekrety aranżacji kompozycji midi // World of PC. 1999. - nr 7. -S. 128-135.

131. Zuev B. Sztuka aranżacji instrumentów muzycznych // PC World. - 1999. -№ 10.-S. 142-150; Nr 11.-S. 146-152.

132. Izhaev R. Studio muzyczne na stole // Multimedia. 1997. - nr 1. S. 78-86.

133. Izhaev R. Zamieszanie wokół komputera // Multimedia. 1997. - nr 5. - S. 93-95.

134. Izhaev R. Włącz i graj // Multimedia. 1997. - nr 8. - S. 96-101.

135. Izhaev P. Pinnacle Project Studio - studio muzyczne pod klucz // PC World. -1997. - Nr 11. S. 180-181.

136. Izhaev R. Domowe studio: Mikrofon włączony // Multimedia. 1998. -№2.-S. 93-103.

137. Izhaev R. Klawiatura MIDI do domowego studia // World of PC. 1998. - nr 4. -S. 185-196.

138. Izhaev R. Niszczenie stereotypów // Multimedia. 1998. - nr 3. - S. 86-95.

139. Izhaev R. Na progu GIGAHTCKoro Leap // PC World. 1998. - nr 9. - S. 160-170.

140. Kolesnik D. Ziemia! // Zainstaluj Pro. 1999. - nr 1. - S. 48-50.

141. Kozhemyako A. W poszukiwaniu wysokiej jakości dźwięku // Podvod, łódź. - 1999. -№8.-S. 26-31.

142. Krutikova S. Miksowanie jako proces twórczy. Część 1: Przetwarzanie częstotliwości i dynamiki // Inżynier dźwięku. 1999. - nr 7. - S. 32-36.

143. Krutikova S. Miksowanie jako proces twórczy. Część 2: Panoramowanie i przetwarzanie przestrzenne // Inżynier dźwięku. 1999. - nr 8. - S. 48-50.

144. Karyakin S. Co to jest mastering? // Pokaż mistrza. 1997. - nr 3. - S. 78-79.

145. Katalog Studia komercyjne // Muzyka. sprzęt. 1997. - nr 33. - S. 38-46.

146. Kenzl T. Formaty plików dźwiękowych // Świat Internetu. 1998. - nr 5. - S. 72-79.

147. Kolesnik D. Technika i technologia małych studiów: stół mikserski i obróbka dźwięku // Show-Master. 1998. - nr 1. - S. 56-60.

148. Kolesnik D. Technika i technologia małych studiów: Urządzenia do przetwarzania dźwięku: Psychoakustyka. metody przetwarzania // Show-Master. 1998. - nr 2. - S. 70-73.

149. Kurilo A., Michajłow A. Studio muzyczne na komputerze // PC World. 1996. - nr 3. - S. 170-179.

150. Kurilo A. Muzyka na twardym dysku // Multimedia. 1996. - nr 3. - S. 76-79.

151. Kurilo A. Audiomania // Świat PC. 1997. - nr 1. - S. 168-182.

152. Kurilo A. Audiomania 2 // Świat PC. 1998. - nr 8. - S. 154-164.

153. Kurilo A. „Żelazne” wiadomości // Świat PC. 1998. - nr 8. - S. 166-167.

154. Lakin K. NUENDO - nowy pakiet do produkcji programów firmy Steinberg // 625: Inform.-tech. czasopismo 1998. - nr 6. - S. 86-87.

155. Larry O. Programy do pracy z dźwiękiem dla multimediów // Multimedia. 1998. - nr 4. - S. 83-89.

156. Levin R. Komputer - muza?: Wywiad z kompozytorem V. Ulyanichem // Radio.-1989.-№3,-S. 18-19.

157. Lipkin I. Komputerowy kompozytor - muzyk - dyrygent // Computer Press. - 1990. - Nr 12. - S. 35-47.

158. Makarova O. Eksperymentalna muzyka komputerowa // Komputer domowy. 2000. - nr 1. - S. 84-85.

159. Malafeev P.V. Pisz muzykę na komputerze // PC World. 1995. - nr 11.-S. 34-35.

160. Mazel L. Muzykologia i osiągnięcia innych nauk // Sow. muzyka. -1974.-№4.-S. 24-35.

161. Maloletnev D. „Wieloręczny MIDI”: „Rewitalizacja” aranżacje MIDI // IN / OUT. 1998. - nr 25. - S. 78-82.

162. Maloletnev D. „Lampa” i „Digit” Nagrywanie gitary w domowym studio // IN / OUT. 1999. - nr 30. - S. 122-125.

163. Michajłow A., Popow D. Centrum informacyjne " sprzęt muzyczny» // Pokaż-Mistrz. 1997. - nr 1. - S. 46.

164. Michajłow A. Karty dźwiękowe córki // Muzyka. sprzęt. 1997. - nr 27. - S. 17-20.

165. Michajłowski Y. Cakewalk Audio // Muzyka. sprzęt. 1996. - nr 19. -S. 29-38.

166. Michajłowski Y. Mapper MIDI w Windows 95, mit czy rzeczywistość? // Muzyka. sprzęt. 1997. - nr 25. - S. 24-34.

167. Michajłowski Yu Cakewalk Audio // Muzyka. sprzęt. 1996. - nr 19. -S. 29-38.

168. Meyerzon B Metody eksperckiej oceny jakości dźwięku nagrań // Reżyser dźwięku. 1999. - nr 8. - S. 52-53.

169. Monakhov D. Aranżer wizualny // Komputer domowy. 1997. -№5.-S. 36-40.

170. Monachow D. “ Orkiestra w pudełku"-zabawka? Instruktaż? Narzędzie? // Komputer domowy. 1997. - nr 3. - S. 30-35.

171. Mukhachev P. Technologia MIDI // Show-Master. - 1997. - nr 1. - S. 66-68; nr 3. - S. 82-85; 1998. - nr 1. - S. 97-101; Nr 2. - S. 92-94.

172. Muzychenko E. Encyklopedia multimediów: Vopr. i odpowiedzi zgodnie ze standardem MIDI // PC World. 1998. - nr 6. - S. 76-78.

173. Matthews M., Pierce J. Komputer jako instrument muzyczny // W świecie nauki. 1987. - nr 4. - S. 12-15.

174. Naumov N. A. Badania lingwistyczne systemów znakowych // Międzynarodowa konferencja „Matematyka i sztuka”, Suzdal, 23-27 września. 1996: Streszczenie. M., 1996. - S. 42.

175. Nikitin B. Cakewalk Pro Audio 6.0 // Muzyka. sprzęt. 1997. - nr 30. -S. 48-58.

176. Orłow L. Syntezatory i samplery // Inżynier dźwięku. 1999. - nr 8. - S. 3-27.

177. Orłow L. Kompresja wielopasmowa nie jest luksusem, ale narzędziem do przetwarzania sygnału // Inżynier dźwięku. 1999. - nr 8. - S. 32-33.

178. Osipov A. A silnik ryczy: Alexander Kutikov o skale i elektryczności // Komputer domowy. 2000. - nr 1. - S. 78-83.

179. Petelin R. Yu Lekcja muzyki na komputerze // Narzędzia komputerowe w edukacji. 1998. - nr 4. - S. 29-35.

180. Simanenkov D. Od analogowego do cyfrowego i odwrotnie, trochę teorii // Computerra. -1998. nr 30. - S. 22-27.

181. Simanenkov D. Ciekawe fakty z życia kart dźwiękowych // Computerra. 1999. - nr 24. - S. 33-35.

182. Simanenkov D. Studio przetwarzanie dźwięku na komputerze PC w czasie rzeczywistym // Podvod, łódź. 1999. - nr 8. - S. 74-78.

183. Stepanova E. Komputerowe studio nagrań // Radio. 1999. - nr 7. -S. 36-38.

184. Stepanova E. Dwukanałowe karty dźwiękowe // Radio. 1999. - Nr 11.- S. 36-38.

185. Ulyanich V. S. Uwagi na temat muzyki komputerowej // Muzyka. życie. 1990. -nr 17.

186. Chernetsky M. Procesory przetwarzania przestrzennego // Inżynier dźwięku. 1999. - nr 5. - S. 3-5.

187. Shkolin V. Studio domowe // Komputer domowy. 2000. - nr 1. -S. 86-90.

188. Jakowlew A. „Ładuje dźwięk”. // Komputery. 1999. - nr 8. - S. 3637.

189. I. Literatura w językach obcych

190. Adams M., Beauchamp J., Meneguzzi S. Dyskryminacja dźwięków instrumentów muzycznych ponownie zsyntetyzowanych za pomocą uproszczonych parametrów spektrotemporalnych // Journal of the Acoustical Society of America. 1999. - N 105. - s. 882-897.

191. Adams M. Perspektywy dotyczące wkładu barwy w strukturę muzyczną // Computer Music Journal. 1999. - N 23. - s. 96-113.

192. Ashby WR Kybernetika. Praha: Mala morerni encykl., 1961.

193. Adams M. Psychologia muzyki // Percepcja: The New Grove Dictionary of Music and Musicians / Ed. S. Sadie, J. Tyrell. Londyn, 2001. s. 538-539.

194. Adams M., Matzkin D. Podobieństwo, niezmienność i zmienność muzyczna. Nowy Jork: Akademia Nauk, 2001.

195. Adams M., Drake C. Percepcja słuchowa i poznanie // Stevens" Handbook of Experimental Psychology. Vol. 1: Sensation and Perception / wyd. H. Pashler, S. Yantis. New York, 2001. - P. 45 -56.

196. Badings H., de Bruyn W. Elektronjsche Musik // Philips technische Rundschau. 1957. - Cz. 19, nr 6. - s. 58.

197. Backus JW Programovani v jazyku "Algol 60". Praha: SNTL, 1963. - 78 s.

198. Berio L. Musik und Dichtung. -eine Erfahrung. Darmstad: Darmstadter Beitrage zur Neuen Musik, 1959. - 142 S.

199. Bigand E., Adams M. Podzielona uwaga w muzyce // International Journal of Psychology. 2000. - N 12. - s. 270-278.

200. Brown J., Houix O., Adams S. Zależność funkcji w automatycznej identyfikacji muzycznych instrumentów dętych drewnianych II Journal of the Acoustical Society of America. 2001. - N 109. - P.1064-1072.

201. B1 acher B. Die musikalische Komposition unter dem EinfluB der technischen Entwicklung der Musik. Berlin, 1955.

202. Cahill T. Muzyka elektryczna jako środek wyrazu // Elektronika. 1951.-N24.-P. 12-32.

203. Podręcznik elektronicznych instrumentów muzycznych Crowhurst NH. Indianopolis: HW Sams, 1962.

204. Douglas A. Podręcznik elektronicznego instrumentu muzycznego. Londyn: Pitman i synowie, 1957.

205. Drager H. Die historische Entwicklung des Instrumentenbaues. Berlin, 1955.

206. Eimert H. Der Komponist und die elektronischen Klangmittel H Das Musikleben. 1954. -Juli. - s. 15-17; sierpień - S. 56-60.

207. Eimert H., Enkel F., Stockhausen K. Fragen der Notation elektronischer Musik // Hamburg Technische Hausmitteilungen NWDR. 1954. - N 6.

208. Eimert H. La musique electronice: Versia musique Experimente. Paryż, 1954.

209. Eimert H. Probleme der elektronischen Musik: Prisma der gegenwartigen Musik: (Tendenzen und Probleme des zeitgenossischen Schaffens). Hamburg: Furche Yerlag, 1959.

210. Fallin P. Marginalie o Edgardovi Yareseovi // Slovenska hudba. 1964. - N 5.-S. 17.

211. F1 orian L. Experimentalne hudobne nastroje a moderna technika // Slovenska hudba.- 1962.-N 6.-S. 32.

212. Hiller LA, Isaacson LM Muzyka eksperymentalna. Nowy Jork: McGraw/Hill Book Company, Imc., 1959.

213. Hi 11 er L. A. Muzyczne zastosowanie elektronowych maszyn muzycznych // Ruch muzyczny. 1962. - N 7. - S. 5.

214. Holde A. The Electronic Music Synthesizer // Neue Zeitschrift fur Musik. -1960.-N 121.-S. 21.

215. Henze H. W. Neue Aspekte in der Musik // Neue Zeitschrift fur Musik. 1960.-Nl.-S.78.

216. Karkoschka, E. Ich habe mit Equiton komponiert, Melos. 1962. - Heft 7/8.

217. Klangstruktur der Musik // Neue Erkenntnisse musikelektronischer Forschung. Berlin: Verlag fur Radio-Foto-Kinotechnik GHBH, 1955. - Heft 5-7.

219. Laszlo A. Farblichtmusik. Berlin, 1925. - 78 S.

220. Leeuw T. Elektronische Probleme in den Niederlanden // Melos. 1963r. - S 41.

221. Lebl V. 0 hudbe budoucnosti a budoucnosti hudbv // Hudebni rozhledy. -1958.-T. 11.-P. 42.

222. Lollermoser W. Akustische Beurteilung elektronischer Musikinstrumente // Archiv fur Musikwissenschaft. 1955. - N 4. - S. 51.

223 Mayer-Eppler W. Grundlagen und Anwendungen der Teoria informacji. -Berlin; Getynga; Heidelberg: Springer Verlag, 1959.

224. Metelka J. Matematicke stroje - kybernetika. Praga: SPN, 1962.

225. Mever-Eppler W. Elektronische Kompositionstechnik // Melos. 1956. - N 1.-S.45.

226. Meyer-Eppler W. Elektronische Musik. Berlin, 1955. - S. 18.

227 Moles, AA Perspectives de rinstrumentation electronicique, ks. Beige de musicologie. 1959. - N 1. - s. 15.

228 Moles, AA Structure Physique du Signal Musical. Paryż. Sorbona, 1952.

229. Moroi M. Elektronische und konkrete Musik in Japan // Melos. 1962. - N 2. -S. 17.

230. Marozeau J., de Cheveign A., Adams S., Winsberg, S. Percepcyjna interakcja między wysokością a barwą dźwięku muzycznego // Journal of the Acoustical Society of America. 2001. - N 109. - s. 52.

231. Paclt J. Quo vadis, musica? // Kultura. 1957. - N 33. - S. 32.

232. Prieberg FK Die Emanzipation des Gerausches // Melos. -1957. N 1. - S. 5.

233. Prieberg FK Musik des technischen Zeitalters. Zurych: Atlantis Verlag AG, 1956.

234. Pressnitzer D., Patterson RD, Krumbholz K. The Lower Limit of Melodic Pitch // Journal of the Acoustical Society of America w druku. 2001. - s. 43-56.

235. Pressnitzer D., Patterson RD, Krumbholz K. The Lower Limit of Melodic Pitch z filtrowanymi kompleksami harmonicznymi // Journal of the Acoustical Society of America. 1999. - N 105. - s. 12-15.

236. Pressnitzer D., Adams S. Akustyka, psychoakustyka i muzyka spektralna // Muzyka współczesna Rev. 1999. - Cz. 19. - s. 33-60.

237. Paraskeva S., Adams S. Wpływ barwy, obecności/braku hierarchii tonalnej i treningu muzycznego na percepcję napięcia: Schematy relaksacyjne fraz muzycznych // Międzynarodowa Konferencja Muzyki Komputerowej, ICMA. -Saloniki, 1997. s. 438-441.

238. Reich W. Das elektroakustische Experimentalstudio Gravesano // Schweizerische Musikzeitung. 1959. - N 9. - S. 31.

239. Riemann Musik-Lexicon: Sashteil. Meinz; Londyn; Nowy Jork; Paryż, 1993. -1087 S.

240. Rybaric R. To otazke genezy elektronickej hudby // To problematike sucasnej hudby. Bratysława, 1963. - S. 76.

241. Sala 0. Das neue Mixtur-Trautonium // Musikleben. 1953r. - ok. - S.38.

242. Schaeffer P. A la Recherche d „une Musique Concrete. Paryż: Editions du Seuil, 1952.

243 Schaeffer P. Konkretni hudba. Praha: Supraphon, 1971. S.34

244. Schonberg A., Ausgewahlte B. Ausgewahit und herausgegeben von Erwin Stein. Mainz, Schott's Shone, 1958. S 8.

245. Svoboda R., Vitamvas Z. Elektronicke hudebni nastroje. Praha: Stat, nakladatelstvi technicke literatury, 1958.

246. Simunek E. Poucenie z hudobneho futurizmu a z "konkretnej hudby" pre postoj toexperimentom // Hudebni rozhledy. 1959. - T. 12. - S. 27-34.

247. Stockhausen K. Texte zur elektronischen und instrumentalen Musik. bd. 1: Aufsatze 1952-1962 zur Theorie Komponierens. Kolonia, 1963. - S. 23.

248. Susini P., Adams S. Psychofizyczna walidacja urządzenia proprioceptywnego poprzez cross-modalne dopasowanie głośności // Acustica. 2000. - Cz. 86.-s. 515-525.

249. Ussachevsky W. La "Tape Music" aux Etats-Unis // Vers une Musique Experimentale. Paryż, 1957. - s. 47-51.

250. Ussachevsky W. Notatki na temat utworu na magnetofon // Musical Quart. 1960.-t. 46, N2.-P. 34.

251. Ulianich V. Projekt FORMUS: czasoprzestrzeń dźwiękowa i artystyczna synteza dźwięku // LEONARDO. 1995. - Cz. 28, nr 1. - s. 63-66.

252. Varese E. Erinnerungen und Gedanken // Darmstadter Beitrage zur Neuen Musik. 1960. - S.57.204

253. Wilkinson M. Wprowadzenie do muzyki Edgara Varese'a // Score. 1957.-N19.

254. Winckei F. Berliner Elektronik // Melos. 1963. - N 9. - S. 27-56.

255. Winckei F. Klangwelt unter der Luppe. Berlin: Wunsiedel, 1952. - S.56.

256. Worner K. H. Neue Musik in der Entscheidung. 2 pon. - Moguncja: Schott "s Sohne, 1956. - S.72.1. Glosariusz Aa

257. Aftertouch Ogólny termin określający dane dotyczące nacisku na klawisz. Ciśnienie kanału (ciśnienie kanału). Polifoniczne naciskanie klawiszy 3D 3 wymiarowe. - trójwymiarowy (surround) dźwięk

258. A/D Analog/Cyfrowy. - Cyfrowe analogowe

259. Technologia symulacji dźwięku przestrzennego A3D Aureal

260. AC Prąd przemienny. - prąd przemienny

261. Lewy kanał kanału A w sygnale stereo

262. ADAT Alesis Digital Audio Packaging. - Format cyfrowego nagrywania dźwięku na taśmie Alesis

263. Konwersja analogowo-cyfrowa ADC. - konwersja analogowo-cyfrowa

264. Modulacja Adaptive Delta Code (PCM) Adaptacyjna różnicowa (delta) modulacja impulsowo-kodowa Impuls to metoda reprezentacji danych audio w formie cyfrowej. Istnieją różne algorytmy, które stosują tę zasadę

265. ADAT Alesis Digital Audio Tara

266. Fazy dynamicznego rozwoju dźwięku ADSR, krzywa obwiedni sygnału dźwiękowego (A - Attack, D - Decay, S - Sustain, R - Release)

267. AES/EBU Towarzystwo Inżynierii Dźwięku/Europejska Unia Nadawców Towarzystwo Inżynierii Dźwięku/Europejska Unia Nadawców. Standard przesyłania danych z jednego urządzenia cyfrowego do drugiego

268 Format pliku wymiany audio AIFF. - format pliku zawierający dźwięk cyfrowy

269.AM Modulacja amplitudy. - modulacja amplitudy

270. Ambience space (czasami - średni poziom pogłosu)

271. Komputer multimedialny Amiga, który został wyprodukowany przez firmę

272. Commodore (później prawa kupiły inne firmy)

273. Amerykański Narodowy Instytut Normalizacyjny ANSI. - Amerykański Narodowy Instytut Normalizacyjny

274. ASP Stowarzyszenie Profesjonalistów Shareware. - Stowarzyszenie Producentów Shareware

275 ASPI Zaawansowany interfejs programowania SCSI. - zaawansowany interfejs programowania SCSI

276. ATAPI Interfejs pakietów ATA. - interfejs dla napędów CD z kontrolerem IDE

277. Atak - Atak. Czas potrzebny do dynamicznego narastania dźwięku, aż jego amplituda osiągnie maksymalną wartość. Instrumenty perkusyjne mają szybki atak, podczas gdy wiele instrumentów dętych blaszanych i smyczkowych ma powolny atak.

278. Adres ATTS Kod czasu śledzenia. - utwór z kodem adresowo-czasowym

279. Menedżer kompresji audio Menedżer kompresji audio firmy Microsoft. to standardowy interfejs do kompresji plików audio obsługiwany przez systemy Windows, Windows 95/98 i Windows NT. Jest częścią systemu Windows

280. AudioX Windows Driver Standard firmy Cakewalk

281. Pomocniczy AUX. - dodatkowe (wyjście audio)

282. AVI — format cyfrowych plików wideo obsługiwany przez system Windows1. nocleg ze śniadaniem

283. Kanał B Prawy kanał w sygnale stereo

284. Podstawowy system wejścia-wyjścia systemu BIOS. - Podstawowy System Wejścia Wyscia. Program w pamięci ROM urządzenia komputerowego (takiego jak płyta główna)

285. Bitowa cyfra binarna. Zobacz Bit BPF

286. Filtr pasmowoprzepustowy

287. Kontroler oddechu 1. Urządzenie w postaci rurki, w którą muzyk dmucha (jak podczas gry na instrumentach dętych). Konwertuje siłę oddechu na odpowiedni komunikat MIDI.

288. Komunikat MIDI typu Zmiana sterowania (CC=2). Steruje dowolną charakterystyką odtwarzanego brzmienia (głośność, ekspresja, vibrato) w zależności od modelu syntezatora.

289. Brak bufora Za mało bufora". W trakcie „wypalania” płyty program nie miał czasu na załadowanie kolejnej porcji danych do bufora i operację trzeba było przerwać. Ta sesja nagrywania płyty CD nie powiodła się, nagrane dane są uszkodzone1. Wbudowany

Format fali rozgłoszeniowej 290BWF. - standard plików dźwiękowych wprowadzony przez Europejską Unię Nadawców (EBU)

291. Obejście SS

292. Standardowe złącze audio firmy Canon (aka XLR) Nośnik — częstotliwość nośna (patrz Synteza FM)

293. CD Compact Dick. - PŁYTA CD

294. CD Extra Format CD, w którym podczas pierwszej sesji nagrywane są ścieżki dźwiękowe, a podczas drugiej różne dane komputerowe (teksty, ilustracje)1. CD Plus Zobacz CD Extra

295. CD-A Compact Disc Audio. - CD audio, czyli CD-DA

296. Cyfrowy dźwięk CD-DA Compact Disk (czerwona księga). - główny format nagrywania płyt audio CD

297. Wymazywalny dysk kompaktowy CD-E. - wczesna nazwa formatu CD-RW

298. CD-I Compact Disk Interactive (zielona księga). - interaktywna (multimedialna) płyta CD

299. Dysk kompaktowy CD-MO magnetooptyczny. - CD magnetooptyczny

300. Nagrywalny dysk kompaktowy CD-R (pomarańczowa książka). - standard płyt kompaktowych, który umożliwia jednorazowy zapis na dysk

301. CD-ROM 1. Pamięć tylko do odczytu (żółta książeczka) - Format CD-ROM używany tylko do odczytu.

302. Napęd CD-ROM.

303. Płyta CD z danymi. CD-ROM XA (Patrz CD-XA Bridge Disc)

304. Dysk kompaktowy CD-RW wielokrotnego zapisu. - 1. Standard płyt kompaktowych umożliwiający wielokrotne nagrywanie na płycie.

305. Urządzenie do odczytu i zapisu płyt wielokrotnego użytku.

306. Rozszerzona architektura CD-XA Bridge Disc CD (biała księga). - format płyty kompaktowej umożliwiający zapis danych tak, aby były odczytywane zarówno w postaci CD-ROM XA, jak i w postaci CD-I. Najczęściej używany do nagrywania dysków wideo przy użyciu technologii MPEG

307. Chipset - Zestaw wyspecjalizowanych układów scalonych do interakcji procesora z innymi urządzeniami

308. Obcinanie Przycinanie kanału wejściowego lub nagranego dźwięku

309. Zgrubne strojenie

310 Codec Koder/Dekoder. - kodowanie/dekodowanie Zobacz Codec1. Compander Patrz Compander1. Sprężarka Patrz sprężarka 1. Konwerter Zobacz Konwerter

311. Jednostka centralna procesora. - jednostka centralna

312. Cięcie fragment, odcięcie (częstotliwości), blokada częstotliwości1. Dd

313. D/A Cyfrowy/Analogowy. - cyfrowo-analogowy

314. Konwersja cyfrowo-analogowa DAC. - konwersja cyfrowo-analogowa

315. Pedał tłumika — patrz Sustain w glosariuszu MIDI

316. Darth Vader Efekt dźwiękowy wytwarzany przez obniżenie partii wokalnej o dwa lub więcej stopni (najwyraźniej na cześć Lorda Vadera z Gwiezdnych wojen)

317. Tara dźwięku cyfrowego DAT. - cyfrowy format zapisu dźwięku na taśmie magnetycznej

318. Daughterboard Dodatkowa karta dźwiękowa instalowana w specjalnym gnieździe na głównej karcie dźwiękowej. Zobacz córka karty dźwiękowej

319. Prąd stały DC. - prąd stały

320. Kompaktowa kaseta cyfrowa DCC. - standard kasety do magnetofonu cyfrowego (DAT)

321. Rozpad „Rozpad”: w obwiedni sygnału audio – odcinek przejścia sygnału od wartości maksymalnej do stałej

323. Opóźnienie - Niewielkie, ale zauważalne opóźnienie sygnału audio. Efekt muzyczny „delay”, w którym słyszymy bezpośredni sygnał i po pewnym czasie jego powtórzenie

324. Żądany Sygnał referencyjny System dyktowania System komentatora (wprowadzanie tekstu przez mikrofon)

325. Sygnał cyfrowy

326. Moduł pamięci DIMM Dual In-line. - widok modułu RAM DIP Dual In-line Package - widok modułu RAM

327. Dysk na raz

328. DirectX Zestaw technologii opracowanych przez firmę Microsoft do pracy z programami multimedialnymi. Obejmuje technologie DirectDraw, DirectSound, DirectPlay, DirectShow, DirectInput i inne. Pierwotnie nazywany ActiveMovie

329. Roztrząsanie - metoda przetwarzania dźwięku w zakresie słyszalności istotnym dla ucha ludzkiego. Zwykle używany przy przełączaniu z formatu audio o dużej głębi bitowej (20-24 bity) na format 16-bitowy przyjęty podczas nagrywania płyty CD.

Bezpośredni dostęp do pamięci 330DMA. - bezpośredni dostęp do pamięci

Interfejs zarządzania pulpitem 331.DM1. - interfejs do zbierania, przechowywania i zarządzania informacjami o systemie komputerowym

332. Dolby Digital Sześciokanałowy format (środkowy, lewy, prawy, lewy-tylny, prawy-tylny, basowy) do tworzenia dźwięku przestrzennego (wcześniej nazywany Dolby Surround)

333. Dolby Pro-Logic Format do tworzenia dźwięku przestrzennego. Wykorzystuje cztery kanały sygnałowe, ale do transmisji i przechowywania danych są one zakodowane w dwóch kanałach. Przed odtwarzaniem oryginalne cztery sygnały są dekodowane i odbierane

334. Dolby Surround Sześciokanałowy format dźwięku przestrzennego używany w kinie (obecnie nazywany Dolby Digital)

335. Klucz sprzętowy Klucz, który jest wkładany do złącza I / O (drukarka, komputer itp.) W celu ochrony programów przed nieautoryzowanym użyciem

336. Pobieranie z podwójną prędkością

339. Kopiowanie plików ze zdalnego magazynu (inny komputer, sekwencer, kafelek danych MIDI itp.) do komputera.

Dwuprocesorowy 340.DP. - komputer z dwoma procesorami dpi punktów na cal. - punktów na cal (gęstość, rozdzielczość podczas drukowania, skanowania)

341. Interfejs trybu chronionego DPMI DOS. - Interfejs trybu chronionego DOS (umożliwia jednoczesne ładowanie kilku programów DOS do pamięci RAM komputera)

342. Przeciągnij i upuść Przeciągnij i upuść". - Technologia Windows do pracy z obiektami na ekranie monitora

343. Dynamiczna pamięć o dostępie swobodnym DRAM. - dynamiczna pamięć o swobodnym dostępie. Moduły DRAM są używane w pamięci RAM 1. Sterownik Patrz Sterownik

344. Zestaw perkusyjny Specjalny zestaw sampli (dźwięków) bębnów i instrumentów perkusyjnych. Każda nuta klawiatury fortepianu ma swój własny instrument (próbkę).

345. Suszyć - dźwięk bez naturalnego pogłosu. Uzyskiwany podczas nagrywania z bardzo kierunkowego mikrofonu z bardzo bliskiej odległości lub w bardzo „stłumionym” pomieszczeniu studyjnym

346. Bezpośredni strumień cyfrowy DSD. to cyfrowa technologia audio opracowana przez firmę Sony.

347. DSP Zobacz Cyfrowe przetwarzanie sygnału.

348. Podwójna gęstość - oznaczenie dwustronnych modułów SIMM

349. Atrapa panelu

350. Uniwersalny dysk cyfrowy Cyfrowy dysk wideo. - format CD, który pozwala na przechowywanie większej ilości informacji niż zwykła płyta CD (około 4-17 Gb) DVD Płyta CD zawierająca ścieżki dźwiękowe

351. Cyfrowy uniwersalny dysk do nagrywania

352. Cyfrowa wszechstronna pamięć o dostępie swobodnym

353. Cyfrowy wszechstronny dysk pamięci tylko do odczytu

354. Cyfrowy wszechstronny dysk wielokrotnego zapisu

355. DVD-Video Format płyty DVD zapewniający wysoką jakość wideo. Zwykły dysk zawiera dwie godziny wideo, dwustronny dysk dwuwarstwowy zawiera 8 godzin. Ponadto płyta może zawierać do ośmiu ścieżek audio na film (w różnych językach)

356. Digital Video Interactive - cyfrowe interaktywne wideo1. Jej

357. EASI-Enhanced Audio Streaming Interface — technologia sterownika audio opracowana przez firmę Emagic

358. Echantillon formacja dźwiękowa o ograniczonym czasie trwania (od kilku sekund do jednej minuty), niezorganizowana według żadnej charakterystycznej cechy i nie zamknięta (tzn. nie ma wyraźnego początku i końca).

359. ED-Extended Density zwiększona gęstość zapisu (na dysku, dyskietce, taśmie magnetycznej)

360. Generator obwiedni EG-Envelope Generator. Zobacz Koperta.

361. Element minimalnego zjawiska dźwiękowego słyszalnego dla ucha, na przykład narastanie, zanikanie dźwięku itp.

362. EMU-8000 - układ do syntezy dźwięku metodą „wave table syntezy” w karcie dźwiękowej Sound Blaster AWE32 lub Sound Blaster 32.1. Emulator Zobacz Emulator

363. Enhancer Program lub urządzenie do cyfrowego przetwarzania dźwięku. Dodaje wyższe harmoniczne do sygnału audio, aby uzyskać bogatszy, „przezroczysty”, „jasny” dźwięk.1. Koperta Patrz Koperta.1. Wzbudnica Patrz Enhancer1. FF

364. Fragment jest konstrukcją dźwiękową trwającą kilka sekund, złożoną z kilku elementów. Różni się pewną charakterystyczną cechą, nie zawiera ani jednego powtórzenia i nie rozwija się.1. Kk

365. Podział klawiatury

366. Kod czasu linii C Liniowy kod czasu1. mm

367. Instrukcja Opis, instrukcja1. Mistrz Patrz Mistrzu

368. MB-Megabajt Megabajt (milion bajtów). Zobacz Bajt

369. MCI-Media Control Interface Interfejs dla urządzeń multimedialnych i programów kontrolujących wymianę danych, uruchamianie plików itp.

370. MIDI (Music Instruments Digital Interface) cyfrowy interfejs instrumentów muzycznych

371. Myszka Miki

372. Mikser, Mikser Modulator Patrz Modulacja.

373. Modulator Częstotliwość modulacji. Zobacz syntezę FM.

374. Tablica miesięczna

375. MPEG-Motion Pictures Expert Group (grupa ekspertów ds. transmisji obrazu) - opracowana przez tę grupę technologia kodowania informacji wideo i audio.

376. MTR-Nagrywanie wielościeżkowe przestrzenny" sposób.

377. Nagrywanie wielosesyjne

378. Wycisz Wycisz (kanał MIDI lub audio, ścieżka itp.)1. Uu

379. Universal Synthesizer Interface (uniwersalny interfejs syntezatora) urządzenie umożliwiające dostęp do sterowania parametrami syntezatora za pomocą innego syntezatora przy użyciu jednego standardu (formatu danych) .1. Nn

380. Ogranicznik szumów NL Hałas

381. Redukcja szumów

382. Kształtowanie szumu Metoda redukcji szumów w zakresie słuchu istotnym dla ucha ludzkiego. Jest zwykle używany, gdy wysokobitowy format audio (20-24 bity) jest przenoszony do formatu 16-bitowego przyjętego podczas nagrywania płyty CD.

383. Normalizacja Normalizacja to proporcjonalna zmiana amplitudy całego sygnału, tak aby najgłośniejszy sygnał odpowiadał określonemu poziomowi (na przykład 0 dB)1. NR Patrz Redukcja szumów

384. Uwaga wł. Komunikat MIDI do naciśnięcia klawisza klawiatury MIDI. 128 ważnych wartości nut. (od 0 do 127)

385. Note Off wskazuje, że klawisz jest zwolniony. Prędkość uwalniania (szybkość zwalniania klawiszy) służy do kontrolowania szybkości zanikania dźwięku.1. oo

386. OCR-Optical Character Recognition Optyczne rozpoznawanie znaków (litery, cyfry, notatki).

387. Off-line

388. Offset Przesunięcie zdarzeń MIDI lub pliku audio podczas odtwarzania od momentu ich nagrania.

389. Łączenie i osadzanie obiektów OLE

390. On line Podłączony kanał (linia).

391. Orange Book Format CD jest rozszerzeniem formatu Yellow Book. Dane komputerowe są zapisywane w wielu sesjach, ale starsze dyski jedno- i dwubiegowe będą mogły odczytywać tylko dane zapisane podczas pierwszej sesji.

392. Overdub overdub lub overdub.

393. Przeciążenie 1. Przeciążenie wzmacniacza lub innego urządzenia przetwarzającego dźwięk.

394. Efekt muzyczny używany przez gitarzystów w muzyce popularnej i rockowej.1. PP1. Panoramy.

395. Korektor parametryczny — Korektor parametryczny.

396. Wzór Rytmiczny lub melodyczny wzór, fraza (wzór).

397. Patch-wire Przewody łączące, które tworzą specyficzną konfigurację do podłączenia urządzeń syntezatorowych.

398. PCI-Peripheral Component Interconnect Typ magistrali komputerowej.

399. Modulacja impulsowo-kodowa

400. Pin 1. Pin złącza komputerowego w postaci pinu. 2. Igła w głowicach drukarek igłowych.

401. Rdzeń Wysokość nuty (ton, dźwięk).

402. Przesunięcie rdzenia

403. Przesuwanie rdzenia

404. Zmienność rdzenia Patrz detonacja dźwięku.1. Złącze wtykowe.

405. Zasilacz

406. PQ-Parametric Equalizer Korektor parametryczny.

407. Preset (preset) - zestaw sampli połączonych w bank dźwięków.

408. Wstępne tworzenie zjawiska dźwiękowego, które można uchwycić elektroakustycznie, „przechwycić” i nagrać

409. PSU-Zasilacz

410. Krosownice - przewody łączące, które tworzą określoną konfigurację do podłączenia urządzeń syntezatorowych. Dźwięk krosowy wynikający z kombinacji przewodów krosowych.

411. Pitch Bend Dane dotyczące wysokości obejmują 16384 pozycje.

412. Zmiana programu Komunikat o zmianie programu. Preset, Patch, Voice - program tworzenie barwy dźwięk. General MIDI to dział specyfikacji MIDI, który definiuje zestaw standardów dla konsumenckich instrumentów MIDI.

413. Fizyczna synteza modelowania tworzy dźwięki w czasie rzeczywistym przy użyciu złożonych wzorów matematycznych opisujących działanie instrumentów akustycznych.1. Qq

414. Qsound Technologia dźwięku przestrzennego firmy Qsound.

415. Kwantyzacja Kwantyzacja to przesunięcie zmiennej do najbliższej akceptowalnej wartości. Podobną koncepcją jest zaokrąglanie.1. Rr

416. Rack (Rack) stojak na różne bloki i urządzenia

417. Pamięć RAM (Random Access Memory) z dostępem swobodnym. Jest to również RAM - urządzenie pamięci o dostępie swobodnym.1. Zasięg - Zasięg.

418. Rezonans, inaczej Q, inaczej Emphasis, czyli filtr generacji, to sprzężenie zwrotne (sprzężenie zwrotne)

419. S/N- Sygnał/Szum Stosunek sygnału do szumu.1. Próbka Zobacz próbkę.

420. Wielkość próby Patrz Wielkość próby.1. Samplowany dźwięk Patrz Próbka 1. Próbnik Zobacz Próbnik.

421. Częstotliwość próbkowania Patrz Częstotliwość próbkowania. Częstotliwość próbkowania — patrz Częstotliwość próbkowania.

422. SCMS System ochrony przed kopiowaniem stosowany w cyfrowej technologii nagrywania dźwięku.

423. SCSI Patrz Interfejs systemowy małych komputerów

424. SDIF — Sony Digital Interface Format Tt Cyfrowy format wymiany danych audio opracowany przez firmę Sony.

425. Synchroniczna pamięć dynamiczna o dostępie swobodnym SDRAM Moduły SDRAM są używane w pamięci RAM.

426. SDX- Storage Data Acceleration Interface do podłączania napędów CD-ROM i DVD-ROM do dysku twardego (i używania tego ostatniego jako pamięci podręcznej dla nich)

427. SIMM Single In-line Memory Module - Typ modułu pamięci RAM.

428. Shareware Zobacz Shareware.

429. Nagrywanie jednosesyjne Tryb nagrywania CD, w którym wszystkie dane są nagrywane w jednej sesji, a płyta jest „zamknięta”.

430. SIPP — Single In-line Pin Package Typ modułu pamięci RAM.

431. Kod czasowy SMPTE Kod przyjęty przez organizację SMPTE w celu synchronizacji działania różnych urządzeń. Jego format to Godziny: Minuty: Sekunda: Klatki (Godziny: Minuty: Sekundy: Klatki), w każdej sekundzie jest 30 klatek.1. Gniazdo Gniazdo złącza.

432. SO-DIMM-Small Outline Dual In-line Memory Module Typ modułu pamięci RAM do laptopów.

433. SRAM -Statyczna pamięć o dostępie swobodnym Moduły SRAM są używane w pamięci RAM.

434. SRS Sound Technologia do tworzenia dźwięku przestrzennego.

435. Synteza subtraktywna Tworzenie złożonych, bogatych harmonicznie przebiegów z późniejszą modyfikacją i filtrowaniem określonych harmonicznych.1. w

436. Prędkość to szybkość, z jaką naciskany jest klawisz. Prawidłowy zakres to 0-127,1. www

437. Synteza Wavetable Jest to ogólna nazwa syntezy opartej na próbkowaniu.A

438. Autoaranżery to program pełniący funkcje aranżera, wymagający od użytkownika minimalnej wiedzy i umiejętności muzycznych.

439. Sekwencery sprzętowe i programowe -1) Sekwencery sprzętowe to specjalne urządzenia przeznaczone wyłącznie do przetwarzania danych MIDI. 2) Sekwencery programowe to oprogramowanie dostarczane z komputerem.

B

441. Bank to zestaw instrumentów, które posiada ten syntezator lub moduł brzmieniowy. Instrument to barwa dźwięku wybrana przez wykonawcę (patch, preset) w banku dźwięków syntezatora lub modułu brzmieniowego.

442. Wirtualne syntezatory to programy wykorzystujące algorytmy matematyczne do tworzenia syntezowanego dźwięku na wyjściu karty dźwiękowej syntezatora.G

443. Generator częstotliwości audio VCO (oscylator sterowany napięciem)

444. Sterownik - urządzenie lub program sterujący pracą innego urządzenia lub programu

445. Do pierwszej oktawy (C1) na fortepianie odpowiada nuta MIDI nr 60.

446. Karta dźwiękowa - wyspecjalizowane urządzenie komputera multimedialnego, które pełni funkcje akompaniamentu dźwiękowego pracy różnych (muzycznych i gier) programów komputerowych

447. Kompresja to proces kompresji zakresu dynamicznego fonogramu.

448. Konwertery programu do konwersji formatów plików dźwiękowych.

449. Kontroler to nazwa komunikatu o zmianie sterowania określonym typem zdarzenia MIDI, wprowadzanego w celu zmiany aspektów dźwięku (np. głośność, vibrato)

450. Kontroler (kontroler MIDI) Klawiatura MIDI lub inne rodzaje kontrolerów MIDI (takie jak gitara MIDI, kontrolery wiatru) przeznaczone do nagrywania danych muzycznych do sekwencera lub przesyłania tych danych do urządzenia generującego dźwięk.

451. Kwantyzacja (kwantyzacja) - przesunięcie wartości zmiennej dowolnego parametru do najbliższej prawidłowej wartości. Podobną koncepcją jest zaokrąglanie.M

452. Jednoczesne nagrywanie miksów kilku różnych konstrukcji dźwiękowych.

453. Odtwarzacz multimedialny przeznaczony jest do odtwarzania różnorodnych plików muzycznych i dźwiękowych, a także płyt audio CD.

454. Sekwencer MIDI - program umożliwiający nagrywanie i edycję komunikatów MIDI oraz prezentację ich w postaci ścieżek.

455. Zestawy muzyczne to programy komputerowe umożliwiające tworzenie prostych utworów muzycznych bez wymagania od użytkownika specjalnej wiedzy i umiejętności muzycznych.

456. Wielościeżkowe cyfrowe studia audio są kompletnym analogiem wielościeżkowych magnetofonów. Wiele zadań studiów audio pokrywa się z podobnymi zadaniami programów - edytorów dźwięku i sekwencerów MIDI.

457. Programy do konwersji dźwięku na plik MIDI i notatki tłumaczące muzyczny plik audio na tekst muzyczny.

458. Kompozycja wielobrzmieniowa kompozycja muzyczna składająca się z kilku linii instrumentalnych o różnych barwach barwy.

459. Nauczanie i testowanie programów muzycznych programów realizujących następujące zadania: teoria muzyki, kształcenie sztuki instrumentalnej, rozwój słuchu (solfeggio) i historia muzyki (literatura muzyczna).

460. Operator jest połączeniem generatora i obwodu, który nim steruje. Schemat połączeń operatorów i parametry każdego z nich decydują o barwie dźwięku. Liczba operatorów określa maksymalną liczbę syntezowanych tonów.P

461. Panaromirovanie rozmieszczenie źródeł dźwięku w przestrzeni.

462. Programy do pracy z urządzeniami MIDI - edytory zewnętrznych syntezatorów i modułów dźwiękowych.

463. Odtwarzanie przestrzenne jest jedną z trzech głównych metod projekcji dźwięku (odtwarzanie przestrzenne - statyczne, przestrzenne - kinetyczne i dźwiękowe z jednego źródła)

464. Preset jest złożonym dźwiękiem, który sam w sobie składa się z kilku sampli. Preset zawiera również dane o tym, jak można zmienić ten dźwięk.

465. Odmiany instalacji: instalacja przestrzenna; - montaż konstrukcji; - instalacja warstw tematycznych; - instalacja nagłośnienia elektrycznego.

466. Reverb (Reverb) - odnosi się do najpopularniejszych efektów dźwiękowych. Istota pogłosu Oryginalny sygnał dźwiękowy jest miksowany z jego kopiami opóźnionymi względem niego o różne przedziały czasowe.

467. Edycja nagranych zdarzeń muzycznych Działania wykonawcy związane z kontrolerami MIDI (naciśnięcie klawisza, siła nacisku, numer klawisza, dynamika dźwięku instrumentu itp.) są rejestrowane przez sekwencer w postaci listy zdarzeń muzycznych

468. Edytory łatek (Patch) - wyspecjalizowane programy, które edytują parametry dźwięku barwy zestawu dźwięków (banków dźwięków) syntezatorów lub samplerów.

469. Sample (Sample) 1) Dźwięk nagrany w formacie cyfrowym do wykorzystania jako podstawa do stworzenia barwy EMP.2. plik audio, który jest używany jako materiał muzyczny w nowoczesnych technologiach tworzenia muzyki tanecznej.

470. Sekwencery to różne edytory wydarzeń muzycznych, które sterują pracą procesorów multimedialnych kart dźwiękowych i syntezatorów za pomocą poleceń MIDI.

471. Sekwencjonowanie to proces zapisywania komunikatów MIDI do sekwencera.

472. Syntezator dźwięku to urządzenie elektroniczne składające się z następujących zespołów: generatora dźwięku, zestawu filtrów, wzmacniacza oraz jednego lub kilku generatorów obwiedni i niskich częstotliwości.

473. Instrumenty syntezujące - barwa dźwięku jest syntetyzowana z prostych alikwotów harmonicznych

474. Metoda rejestru jest odmianą metody addytywnej. Używanie bardziej złożonych przebiegów (np. piłokształtnych lub prostokątnych)

475. Transmutacja to manipulacja, która zmienia materiał, to znaczy skład spektralny, wysokość, barwę i często czas trwania dźwięku.

476. Transformacja = transformacja dźwięku w zakresie barwy i charakterystyki dynamicznej (narastanie i opadanie)

477. Modulacja częstotliwości FM

478. Emulatory modułów dźwiękowych i syntezatorów Celem tego typu programu jest zastąpienie prawdziwych syntezatorów producentów ich wirtualnym odpowiednikiem.1. Przykład 1

479. Bidule en U "t" P. Henri i P. Schaeffer. 1. Przykład nr 3

480. Kompozycja Messiaena i Henryka " Czas trwania barw"("Timbres-Durees")

481. O. Messnan, Timbres-czas trwania. Wynik

482. OUViEfi MSH/*DGA/ T>Mdf£S"DU#i£$ .dneg fomn< a м5 ff j Vvut^.f Ь

Należy pamiętać, że przedstawione powyżej teksty naukowe są publikowane do recenzji i uzyskiwane poprzez rozpoznawanie tekstu oryginalnej rozprawy doktorskiej (OCR). W związku z tym mogą zawierać błędy związane z niedoskonałością algorytmów rozpoznawania.
Takich błędów nie ma w dostarczanych przez nas plikach PDF prac dyplomowych i abstraktów.


Wydawać by się mogło, że nie minęło wiele lat od czasu, gdy pierwsze komputery, które zajmowały całe pokoje i jednocześnie absolutnie nie były przeznaczone do pisania muzyki, zamieniły się w małe komputery osobiste, łączące w sobie możliwości pracy nie tylko z obliczeniami , ale także z grafiką, wideo, dźwiękiem i nie tylko. W kontekście rozwoju we wszystkich obszarach działalności, absolutnie logiczne wydaje się wprowadzenie komputera do procesu edukacyjnego, nie tylko jako takiego, ale również jako pomoc w nauce.

Zróbmy krótką dygresję do historii pierwszych prób łączenia bezdusznych maszyn ze sztuką.

Dawno temu, od czasów Pitagorasa, a może nawet wcześniej, matematycy zwracali uwagę na formalną stronę organizacji muzyki – na skale czasu i częstotliwości. Jednak mechanizmy odtwarzające muzykę zgodnie z programem pojawiły się przed mechanizmami kalkulatora, więc zaryzykowalibyśmy nazwanie muzyków pierwszymi programistami. Jednak w spuściźnie pisanej kultur starożytnych notacje muzyczne jako opis procesu tymczasowego są być może najbliższe tekstom programów. Istnieją bloki, warunki, pętle i etykiety w obu formach, ale nie wszyscy programiści i muzycy są świadomi tych podobieństw. Ale jeśli je pamiętasz, nie możesz się już dziwić, że tworząc pierwsze komputery, inżynierowie zmusili je do odtwarzania melodii. To prawda, że ​​muzycy nie mogli przypisać muzyki maszynowej prawdziwej muzyce, być może dlatego, że nie było w niej nic poza „martwymi” dźwiękami lub planem. A samo brzmienie maszyny, które na początku było prostym meandrem, było niezwykle dalekie od brzmienia instrumentów akustycznych. Jednak liczne eksperymenty z maszynami elektronicznymi zdolnymi do wydobycia dźwięku doprowadziły do ​​powstania różnych sposobów pisania muzyki, a co za tym idzie do powstania różnych stylów i kierunków. Nowy dźwięk, niezwykły i nieprzyzwyczajony do ucha, stał się innowacją w muzyce. Wielu znanych współczesnych kompozytorów, na przykład K. Stockhausen, O. Messiaen, A. Schnittke, pomimo złożoności pracy z technologią, tworzyło utwory przy użyciu nowych instrumentów elektronicznych lub tylko na nich.

Kolejnym etapem rozwoju muzycznych technologii komputerowych były badania i rozwój metod syntezy dźwięku.

Inżynierowie zwrócili się ku analizie widm instrumentów akustycznych i algorytmom syntezy brzmień elektronicznych. Początkowo obliczenia drgań dźwiękowych były wykonywane przez centralny procesor, ale z reguły nie w czasie rzeczywistym. Dlatego na pierwszych komputerach tworzenie utworu muzycznego było bardzo żmudnym procesem. Trzeba było zakodować nuty i przypisać barwy, a następnie uruchomić program do obliczenia fali dźwiękowej i odczekać kilka godzin na odsłuchanie wyniku. Jeśli muzyk, a raczej programista-operator, dokonał jakiejś zmiany w partyturze, znowu musiał czekać kilka godzin przed odsłuchem. Oczywiste jest, że taka praktyka muzyczna nie mogła być masowa, ale badacze fenomenu muzyki chcieli pójść dalej niż zwykłe użycie maszyny jako elektronicznej pozytywki. Tak powstał kolejny - całkiem naturalny - kierunek muzycznego wykorzystania komputerów: generowanie, generowanie samego tekstu muzycznego.

Już w latach 50., używając pierwszych komputerów, naukowcy podejmowali próby syntezy muzyki: skomponowania melodii lub ułożenia jej sztucznymi barwami. Tak powstała muzyka algorytmiczna, której zasadę zaproponował już w 1206 roku Guido Marzano, a później zastosował W. Mozart do automatyzacji komponowania menuetów – pisania muzyki według utraty liczb losowych.

Kompozycje algorytmiczne tworzyli P. Boulez, J. Xenakis, K. Shannon itp. Autorem słynnej „Illiac Suite” (1957) był przede wszystkim komputer, a współautorami kompozytor Leyaren Hiller oraz programista Leonard Isaacson. Trzy części są bliskie muzyce stricte, a czwarta wykorzystuje matematyczne wzory, które nie mają nic wspólnego ze stylami muzycznymi. P. Boulez i J. Xenakis stworzyli specjalne programy do swoich utworów, każdy dla określonej kompozycji. Pierwszym dziełem J. Xenakisa, demonstrującym stochastyczną (lub algorytmiczną) metodę komponowania muzyki, był „Metastasis” (1954) – utwór, w którym J. Xenakis obliczył algorytm, który następnie zastosował do realizacji projektu architektonicznego Corbusiera w forma pawilonu Philipsa na Wystawie Światowej w 1958 roku.

Historia rozwoju muzycznych technologii komputerowych jest w dużej mierze związana z rosyjskimi naukowcami i badaczami. L. Theremin, E. Murzin, A. Volodin stworzyli unikalne środki syntezy dźwięku nie „po”, ale „przed” swoimi zachodnimi kolegami. Problemami rozpoznawania i autonotacji zajmował się A. Tangyan. R. Zaripov, który „komponował” utwory muzyczne na maszynie Ural, poświęcił swoje badania analizie i generowaniu tekstów muzycznych, tworzeniu kompozycji algorytmicznych. Podstawą takich algorytmów był szczegółowy proces dla różnych elementów faktury muzycznej (kształt, rytm, wysokość dźwięku itp.). Zaripow wydedukował cały zestaw matematycznych reguł komponowania takich melodii. „Uralskie melodie”, jak nazywał te melodie, były monofoniczne i były albo walcem, albo marszem.

Co więcej, są to tylko nazwiska tych badaczy, których praca jest uznawana poza Rosją. Było jednak wiele innych, lokalnych wydarzeń. Nie jedyna, ale jedna z godnych uwagi to pierwsza domowa karta dźwiękowa i interfejs MIDI dla komputera PC Agat-7 (analogicznie do Apple II) z własnym oprogramowaniem muzycznym. Wszystko to działo się w połowie lat 80. XX wieku, kiedy IBM-XT był jeszcze daleko od wszystkich uczelni technicznych, a przeciętny użytkownik nie miał pojęcia o znakach towarowych Sound Blaster (Creative Labs, http://www.creat.com) i Voyetra (Voyetra Technologies, http://www.voyetra.com).

Podobnie jak w innych obszarach (na przykład w grafice i animacji), w muzycznej technologii komputerowej opracowano dwa zasadniczo różne podejścia. Pierwsza związana jest z kontrolą parametrycznego modelu dźwięku, partii, pracy, druga z działaniem analogu obiektu rzeczywistego. Oba podejścia mają zarówno zalety, jak i wady i stale ewoluują. Podczas gdy niektórzy inżynierowie starali się osiągnąć maksymalną wiarygodność w syntezie barw akustycznych, inni opracowywali metody operowania prawdziwym dźwiękiem. Jeśli pierwsi rozwiązywali problemy optymalizacji parametrów syntezy i kontroli wykonania, to drudzy zajmowali się kompresją i dekompresją danych, czyli zagadnieniami fal dźwiękowych. Ale parametryczne modele obiektów są zawsze bardziej atrakcyjne dla inżyniera, znacznie lepiej nadają się do eksploatacji i transformacji. Cała kwestia polega na tym, jak dokładnie modele opisują rzeczywisty obiekt, jeśli celem jest osiągnięcie wiarygodności. Z badań z zakresu psychologii percepcji wiadomo, że progi rzetelności i mechanizmy przywracania obrazów odgrywają szczególną rolę w procesie rozpoznawania wzorców. Nieprofesjonalista nie będzie już w stanie odróżnić zsyntetyzowanej barwy fortepianu od rzeczywistej, właśnie dlatego, że nie ma ona wysokiego progu niezawodności. I jest całkiem możliwe, że przyszłość muzycznych technologii komputerowych leży w modelowaniu parametrycznym.

Ogromna liczba istniejących obecnie programów/środowisk opiera się na trzech podstawowych metodach: stochastycznej, pewnym ustalonym algorytmie oraz systemach ze sztuczną inteligencją.

Metoda stochastyczna opiera się na generowaniu dowolnych serii dźwięków lub pasaży muzycznych i może być prezentowana zarówno z komputerem, jak i bez niego, jak na przykład w pracy Stockhausena.

Sama metoda algorytmiczna jest zbiorem pewnych algorytmów, które realizują intencję kompozytora. Algorytm można przedstawić jako technikę kompozytorską lub jako model generujący dźwięk. Możliwe jest również połączenie tych dwóch funkcji. Unikalnym systemem programowania dźwięku jest program CSound, który jest głównym instrumentem muzyków elektroakustycznych. Program wykorzystuje prawie każdy rodzaj syntezy, w tym FM, AM, subtraktywną i addytywną, modelowanie fizyczne, resyntezę, granularną, a także każdą inną metodę cyfrową. W oparciu o CSound powstało wiele innych systemów (AC Toolbox, CYBIL, Silence itp.). Dla muzyka tworzenie kompozycji w takim środowisku jest dość trudne, gdyż wymaga umiejętności i znajomości programowania (choć twórcy twierdzą inaczej). Kompozytor zapisuje polecenia do dwóch plików tekstowych, z których jeden odpowiada za opis samego brzmienia/instrumentu, drugi powinien zawierać właściwą partyturę. W programie jest niezliczona ilość operatorów, tych cegiełek, które składają się na przestrzeń dźwiękową, którą programujemy.

Nie mniej popularnym środowiskiem do programowania instrumentów wirtualnych i tworzenia algorytmów do interaktywnego wykonania jest program MAX/MSP opracowany przez Paryski Instytut Muzyki Elektronicznej (IRCAM). Jest zaimplementowany jako aplikacja z obiektowym interfejsem użytkownika. Możliwości takiego środowiska to przede wszystkim tworzenie muzyki interaktywnej (podczas występu wstępnie napisany moduł oprogramowania wchodzi w interakcję z odtwarzaną muzyką za pośrednictwem interfejsu MIDI). Praca w takim środowisku to przyjemność, ponieważ daje pełną swobodę działania zarówno kompozytorowi, jak i wykonawcy. Program ten jest szeroko stosowany podczas koncertów na żywo – brzmienie tego samego utworu na różnych koncertach będzie inne, jedynie algorytm interakcji między komputerem a wykonawcą pozostaje niezmieniony. Program jest używany przez wielu czołowych kompozytorów, takich jak Richard Boulanger i Dror Feiler.

Wreszcie możliwe jest wykorzystanie systemów wykorzystujących sztuczną inteligencję. Są to również systemy oparte na regułach, ale ich główną cechą jest zdolność uczenia się. Celem jest stworzenie kompozycji, które mają uczucie, subtelność i intelektualny urok. Powstały w rezultacie algorytm może być albo autonomicznym, ale sztucznie stworzonym systemem muzycznym, albo opartym na analizie twórczości kompozytora. Analizując tę ​​lub inną kompozycję, uzyskuje się pewien zestaw reguł kompozycyjnych, instrukcje dotyczące rozwoju tematycznego, barwy, faktury. I tu dochodzi do paradoksalnego przypadku, z jednej strony mamy maszynę zdolną do wytworzenia produktu mniej więcej zbliżonego do ludzkiego standardu, ale z drugiej strony noszącego piętno warsztatu kompozytora. To samo można powiedzieć o kompozytorach, którzy stworzyli własne programy algorytmiczne. W takich kompozycjach funkcje kompozytora i właściwy „proces komponowania” programu są wyraźnie rozdzielone.

Dziś maszyna nie jest jeszcze w stanie prześcignąć ludzkiej inteligencji i przekuć swój produkt w sztukę. Ten lub inny system nie jest w stanie samodzielnie generować myśli, uczuć. Przy jakimkolwiek stopniu doskonałości nigdy nie stanie się nie tylko „genialną”, ale i „utalentowaną” kompozytorką. Nawet idealna maszyna nie będzie w stanie uzyskać tej nieuchwytnej rzeczy, która zawsze rozróżnia przyrodę ożywioną od nieożywionej (aczkolwiek doprowadzonej do idealnego stopnia doskonałości). Stała się jednak dobrą pomocą w rękach mistrza, kompozytora, ratując go przed marnowaniem ogromnej ilości czasu na obliczenia technologiczne i konstrukcje, które w miarę rozszerzania się sfery wyrazowych środków muzycznych stają się coraz bardziej skomplikowane.

Tak więc dzisiaj dla muzyków komputer otwiera szerokie możliwości twórczego poszukiwania. W tak specyficznej działalności, jaką jest sztuka muzyczna, komputer jest nie tylko doskonałym pomocnikiem, ale w niektórych przypadkach doradcą i nauczycielem. Można wymienić tylko niektóre z możliwości komputera muzycznego: nagrywanie, edycja i drukowanie partytur; nagrywanie, edycja i dalsze wykonywanie partytur za pomocą komputerowych kart dźwiękowych lub zewnętrznych syntezatorów podłączonych przez interfejs MIDI; digitalizacja dźwięków, szumów o różnym charakterze oraz ich dalsza obróbka i transformacja za pomocą programów sekwencerowych; harmonizację i aranżację gotowej melodii z wykorzystaniem wybranych stylów muzycznych oraz możliwość ich edycji aż do wymyślenia własnych (stylów); komponowanie melodii w sposób losowy poprzez sekwencyjny wybór dźwięków muzycznych; kontrolować brzmienie instrumentów elektronicznych poprzez wprowadzenie określonych parametrów przed rozpoczęciem występu; nagrywanie partii instrumentów akustycznych i akompaniamentu głosowego w formacie cyfrowym z ich późniejszym przechowywaniem i przetwarzaniem w programach do edycji dźwięku; programowa synteza nowych dźwięków z wykorzystaniem algorytmów matematycznych; nagrywanie płyt audio CD.

Wszystkie te różnorodne możliwości komputera sprawiają, że można go wykorzystywać zarówno w dziedzinie edukacji muzycznej, jak iw dziedzinie twórczości zawodowej kompozytorów, realizatorów dźwięku i aranżerów.

Nowoczesna lekcja muzyki to lekcja, podczas której wykorzystywane są nowoczesne technologie pedagogiczne, technologie komputerowe, elektroniczne instrumenty muzyczne. Cechą charakterystyczną lekcji muzyki jest tworzenie kreatywnego środowiska, ponieważ treścią lekcji muzyki są emocje i ich subiektywne doświadczenie. Tak specyficzna treść determinuje wybór różnych metod, rodzajów pracy oraz nowych narzędzi multimedialnych.

Komputer daje szerokie możliwości w twórczym procesie uczenia się muzyki, zarówno na poziomie zawodowym, jak i na poziomie twórczości amatorskiej.

Muzyczne technologie komputerowe otworzyły zasadniczo nowy etap w technicznej reprodukcji produktów muzycznych: w notacji muzycznej, w gatunkach muzyki użytkowej, w nośnikach nagrań, w możliwościach jakościowych sprzętu do odtwarzania dźwięku, w działalności teatralnej i koncertowej, w dźwięku projektowanie i nadawanie muzyki (w tym nadawanie przez Internet) .

Jednym z wiodących kierunków w dziedzinie pedagogiki muzycznej XXI wieku jest zapoznawanie uczniów z technologiami informatycznymi i komputerowymi. Rozwój technologii informacyjnych i komputerowych jest obiektywnie konieczny:

Po pierwsze, do profesjonalnego szkolenia kompozytorów i wykonawców,

· po drugie, do wykorzystania jako źródło pomocniczych materiałów edukacyjnych (informacje, szkolenia, montaż, nagrywanie dźwięku, odtwarzanie dźwięku itp.).

Na niektórych uniwersytetach w Rosji technologie elektroniczne związane z twórczością muzyczną są przedmiotem studiów. W takich placówkach edukacyjnych w oparciu o systemy komputerowe opracowywane są „słowniki” dźwiękowe, tworzone są kompozycje muzyczne z wykorzystaniem efektów specjalnych światła i koloru, sekwencji filmowych i wideo, pantomimy aktorskiej.

Programy komputerowe są również wykorzystywane w nauce gry na instrumentach, rozwijaniu słuchu muzycznego, prowadzeniu słuchania utworów muzycznych, doborze melodii, aranżowaniu, improwizowaniu, pisaniu na maszynie i redagowaniu tekstu muzycznego. Programy komputerowe pozwalają określić zakres instrumentu, płynność wykonawcy w pasażach, wykonanie uderzeń i odcieni dynamicznych, artykulację itp. Ponadto komputer umożliwia naukę utworów z „orkiestrą”. Może również pełnić rolę „symulatora” dyrygowania (przy użyciu sprzętu telewizyjnego). Programy komputerowe umożliwiają przeprowadzenie analizy muzycznej i słuchowej melodii (tematów) utworów w toku historii muzyki. Dla wielu dyscyplin muzycznych komputer jest cennym źródłem informacji bibliograficznych i encyklopedycznych.

Powszechne zadania projektowe z prezentacjami komputerowymi, które pozwalają na bardziej wizualną prezentację lub ilustrację materiału.

Należy zauważyć, że wykorzystanie technologii komputerowej ma na celu indywidualny charakter pracy, który generalnie odpowiada specyfice lekcji muzyki. Komputer osobisty umożliwia różnicowanie indywidualnego trybu pracy muzyka w zależności od jego tempa-rytmu, a także ilości wykonywanej pracy.