Serveur d'exploration Xenakis

Attention, ce site est en cours de développement !
Attention, site généré par des moyens informatiques à partir de corpus bruts.
Les informations ne sont donc pas validées.

How can music be expressive?

Identifieur interne : 000749 ( Istex/Corpus ); précédent : 000748; suivant : 000750

How can music be expressive?

Auteurs : Johan Sundberg

Source :

RBID : ISTEX:FF45AB73A21A00ED6FD30BCF40F0133B0B9FDDD5

English descriptors

Abstract

Abstract: Music performance is examined using an analysis-by-synthesis method. As a result a note-to-tone conversion program emerged containing a generative rule system for musical performance. Some of these performance rules are presented and discussed. In particular, the purpose of the rules in music communication is analyzed. Three main purposes are identified: (1) differentiation of pitch and duration categories, (2) marking of boundaries between tone groups, and (3) timing and tuning agreement in ensembles. The possible origin of the performance rules is also discussed. Many striking similarities with speech and other types of human communication suggest that expressive details in music performance are not specific to music. On the contrary, they appear to allude to and thus become meaningful because of the listener's extramusical experiences.
Zusammenfassung: Die musikalische Ausführung wird durch eine Methode der Analyse durch Synthese untersucht. Daraus wird ein Programm zur Umwandlung von Noten in Töne mit einem System von Regeln zur musikalischen Ausführung abgeleitet. Einige dieser Ausführungsregeln werden beschrieben und kommentiert. Es wird besonders die Zweck dieser Regeln in der musikalischen Kommunikation analysiert. Es wurden drei wichtige Aufgaben identifiziert: (1) die Unterscheidung der Kategorien von Tonhöhe und Tondauer, (2) die Identifizierung der Grenzen zwischen Tongruppen, und (3) die rythmische und tonliche Abstimmung in den Ensembles. Es wird auch der mögliche Ursprung dieser Regeln der musikalischen Ausführung kommentiert. Zahlreiche, überraschende Ähnlickkeiten mit verschiedenen Arten der menschlichen Kommunikation, darunter die Sprache, lassen vermuten, daβ die Einzelheiten des Ausdrucks in der musikalischen Ausführung nicht nur der Musik spezifisch sind. Im Gegenteil, sie scheinen die extra-musikalischen Erfahrungen der Hörer zu anspielen und werden gerade deshalb wichtig.
Résumé: L'exécution musicale est examinée par une méthode d'analyse-par-synthèse. On en déduit un programme de conversion de notes à sons comportant un système de régles génératif pour l'exécution musicale. Certaines de ces règles d'exécution sont présentées et commentées. En particulier, on analyse le rôle de ces règles dans la communication musicale. Trois rôles principaux sont identifiés: (1) la différenciation des catégories de hauteur et de durée, (2) l'identification des frontières entre groupes tonaux, et (3) l'accord rythmique et de diapason dans les ensembles. On commente également l'origine possible de ces règles d'exécution musicale. De nombreuses similarités surprenantes avec divers types de communication humaine, dont la parole, suggèrent que les détails expressifs dans l'exécution musicale ne sont pas spécifiques à la musique. Au contraire, elles semblent prendre en compte les expériences extra-musicales des auditeurs et deviennent signifiantes justement grâce à celles-ci.

Url:
DOI: 10.1016/0167-6393(93)90075-V

Links to Exploration step

ISTEX:FF45AB73A21A00ED6FD30BCF40F0133B0B9FDDD5

Le document en format XML

<record>
<TEI wicri:istexFullTextTei="biblStruct">
<teiHeader>
<fileDesc>
<titleStmt>
<title>How can music be expressive?</title>
<author>
<name sortKey="Sundberg, Johan" sort="Sundberg, Johan" uniqKey="Sundberg J" first="Johan" last="Sundberg">Johan Sundberg</name>
<affiliation>
<mods:affiliation>Department of Speech Communication and Music Acoustics, KTH, Box 70014, Stockholm, Sweden</mods:affiliation>
</affiliation>
</author>
</titleStmt>
<publicationStmt>
<idno type="wicri:source">ISTEX</idno>
<idno type="RBID">ISTEX:FF45AB73A21A00ED6FD30BCF40F0133B0B9FDDD5</idno>
<date when="1993" year="1993">1993</date>
<idno type="doi">10.1016/0167-6393(93)90075-V</idno>
<idno type="url">https://api.istex.fr/document/FF45AB73A21A00ED6FD30BCF40F0133B0B9FDDD5/fulltext/pdf</idno>
<idno type="wicri:Area/Istex/Corpus">000749</idno>
<idno type="wicri:explorRef" wicri:stream="Istex" wicri:step="Corpus" wicri:corpus="ISTEX">000749</idno>
</publicationStmt>
<sourceDesc>
<biblStruct>
<analytic>
<title level="a">How can music be expressive?</title>
<author>
<name sortKey="Sundberg, Johan" sort="Sundberg, Johan" uniqKey="Sundberg J" first="Johan" last="Sundberg">Johan Sundberg</name>
<affiliation>
<mods:affiliation>Department of Speech Communication and Music Acoustics, KTH, Box 70014, Stockholm, Sweden</mods:affiliation>
</affiliation>
</author>
</analytic>
<monogr></monogr>
<series>
<title level="j">Speech Communication</title>
<title level="j" type="abbrev">SPECOM</title>
<idno type="ISSN">0167-6393</idno>
<imprint>
<publisher>ELSEVIER</publisher>
<date type="published" when="1993">1993</date>
<biblScope unit="volume">13</biblScope>
<biblScope unit="issue">1–2</biblScope>
<biblScope unit="page" from="239">239</biblScope>
<biblScope unit="page" to="253">253</biblScope>
</imprint>
<idno type="ISSN">0167-6393</idno>
</series>
</biblStruct>
</sourceDesc>
<seriesStmt>
<idno type="ISSN">0167-6393</idno>
</seriesStmt>
</fileDesc>
<profileDesc>
<textClass>
<keywords scheme="Teeft" xml:lang="en">
<term>Acoustic signals</term>
<term>Acta psych</term>
<term>Actual performances</term>
<term>Adjacent tones</term>
<term>Anders friberg</term>
<term>Articulation</term>
<term>Average rating</term>
<term>Bengtsson</term>
<term>Categorical perception</term>
<term>Certain principles</term>
<term>Charge increases</term>
<term>Chord</term>
<term>Chromatic charge</term>
<term>Common time table</term>
<term>Computer program</term>
<term>Contemporary music</term>
<term>Deadpan performance</term>
<term>Different categories</term>
<term>Different ways</term>
<term>Differentiation rules</term>
<term>Duration</term>
<term>Duration categories</term>
<term>Durational</term>
<term>Durational contrast</term>
<term>Eighth note</term>
<term>Ensemble music</term>
<term>Ensemble rules</term>
<term>Experimental psych</term>
<term>Final note</term>
<term>Final ritard</term>
<term>Final ritards</term>
<term>Frequency ratios</term>
<term>Friberg</term>
<term>Fryd6n</term>
<term>Gabrielsson</term>
<term>Generative rule system</term>
<term>Grouping</term>
<term>Grouping rule</term>
<term>Grouping rules</term>
<term>Harmonic</term>
<term>Harmonic charge</term>
<term>Hierarchical structure</term>
<term>Independent evidence</term>
<term>Input note</term>
<term>Last note</term>
<term>Leap articulation</term>
<term>Leap articulation inserts</term>
<term>Long vowels</term>
<term>Loudness</term>
<term>Major chord</term>
<term>Major suite</term>
<term>Major tonality</term>
<term>Meaningful deviations</term>
<term>Melodic</term>
<term>Melodic charge</term>
<term>Micropause</term>
<term>Music communication</term>
<term>Music listeners</term>
<term>Music perception</term>
<term>Music performance</term>
<term>Music score</term>
<term>Musical effect</term>
<term>Musical keys</term>
<term>Musical performance</term>
<term>Musical quality</term>
<term>Musical relevance</term>
<term>Musical rhythm</term>
<term>Musical structure</term>
<term>Nominal duration ratio</term>
<term>Note value</term>
<term>Note values</term>
<term>Other words</term>
<term>Perfect synchronization</term>
<term>Performance program</term>
<term>Performance rules</term>
<term>Personal communication</term>
<term>Phrase subphrase</term>
<term>Piano performances</term>
<term>Piano sonata</term>
<term>Possible origin</term>
<term>Preference quantities</term>
<term>Preferred quantity</term>
<term>Probe chord</term>
<term>Probe tone</term>
<term>Quarter note</term>
<term>Real musicians</term>
<term>Remarkable events</term>
<term>Right side</term>
<term>Ritard</term>
<term>Royal swedish academy</term>
<term>Rule system</term>
<term>Same group</term>
<term>Scale tone</term>
<term>Scale tones</term>
<term>Secondary property</term>
<term>Slur sign</term>
<term>Solo part</term>
<term>Solo voice</term>
<term>Sound level</term>
<term>Speech communication</term>
<term>Speech transmission laboratory quart</term>
<term>Standard cadence</term>
<term>Standard deviation</term>
<term>Standard scale</term>
<term>Status report</term>
<term>Stockholm</term>
<term>Structural boundaries</term>
<term>Subphrase</term>
<term>Such deviations</term>
<term>Such performances</term>
<term>Sundberg</term>
<term>Synchronization</term>
<term>Synchronization voice</term>
<term>Synthesis equipment</term>
<term>Tonal music</term>
<term>Tone duration</term>
<term>Tone groups</term>
<term>Traditional music</term>
<term>Vibrato</term>
</keywords>
</textClass>
<langUsage>
<language ident="en">en</language>
</langUsage>
</profileDesc>
</teiHeader>
<front>
<div type="abstract" xml:lang="en">Abstract: Music performance is examined using an analysis-by-synthesis method. As a result a note-to-tone conversion program emerged containing a generative rule system for musical performance. Some of these performance rules are presented and discussed. In particular, the purpose of the rules in music communication is analyzed. Three main purposes are identified: (1) differentiation of pitch and duration categories, (2) marking of boundaries between tone groups, and (3) timing and tuning agreement in ensembles. The possible origin of the performance rules is also discussed. Many striking similarities with speech and other types of human communication suggest that expressive details in music performance are not specific to music. On the contrary, they appear to allude to and thus become meaningful because of the listener's extramusical experiences.</div>
<div type="abstract" xml:lang="de">Zusammenfassung: Die musikalische Ausführung wird durch eine Methode der Analyse durch Synthese untersucht. Daraus wird ein Programm zur Umwandlung von Noten in Töne mit einem System von Regeln zur musikalischen Ausführung abgeleitet. Einige dieser Ausführungsregeln werden beschrieben und kommentiert. Es wird besonders die Zweck dieser Regeln in der musikalischen Kommunikation analysiert. Es wurden drei wichtige Aufgaben identifiziert: (1) die Unterscheidung der Kategorien von Tonhöhe und Tondauer, (2) die Identifizierung der Grenzen zwischen Tongruppen, und (3) die rythmische und tonliche Abstimmung in den Ensembles. Es wird auch der mögliche Ursprung dieser Regeln der musikalischen Ausführung kommentiert. Zahlreiche, überraschende Ähnlickkeiten mit verschiedenen Arten der menschlichen Kommunikation, darunter die Sprache, lassen vermuten, daβ die Einzelheiten des Ausdrucks in der musikalischen Ausführung nicht nur der Musik spezifisch sind. Im Gegenteil, sie scheinen die extra-musikalischen Erfahrungen der Hörer zu anspielen und werden gerade deshalb wichtig.</div>
<div type="abstract" xml:lang="fr">Résumé: L'exécution musicale est examinée par une méthode d'analyse-par-synthèse. On en déduit un programme de conversion de notes à sons comportant un système de régles génératif pour l'exécution musicale. Certaines de ces règles d'exécution sont présentées et commentées. En particulier, on analyse le rôle de ces règles dans la communication musicale. Trois rôles principaux sont identifiés: (1) la différenciation des catégories de hauteur et de durée, (2) l'identification des frontières entre groupes tonaux, et (3) l'accord rythmique et de diapason dans les ensembles. On commente également l'origine possible de ces règles d'exécution musicale. De nombreuses similarités surprenantes avec divers types de communication humaine, dont la parole, suggèrent que les détails expressifs dans l'exécution musicale ne sont pas spécifiques à la musique. Au contraire, elles semblent prendre en compte les expériences extra-musicales des auditeurs et deviennent signifiantes justement grâce à celles-ci.</div>
</front>
</TEI>
<istex>
<corpusName>elsevier</corpusName>
<keywords>
<teeft>
<json:string>sundberg</json:string>
<json:string>music performance</json:string>
<json:string>friberg</json:string>
<json:string>harmonic charge</json:string>
<json:string>melodic charge</json:string>
<json:string>scale tones</json:string>
<json:string>gabrielsson</json:string>
<json:string>grouping rules</json:string>
<json:string>loudness</json:string>
<json:string>synchronization</json:string>
<json:string>fryd6n</json:string>
<json:string>subphrase</json:string>
<json:string>micropause</json:string>
<json:string>bengtsson</json:string>
<json:string>stockholm</json:string>
<json:string>performance rules</json:string>
<json:string>ritard</json:string>
<json:string>durational</json:string>
<json:string>royal swedish academy</json:string>
<json:string>differentiation rules</json:string>
<json:string>sound level</json:string>
<json:string>music listeners</json:string>
<json:string>adjacent tones</json:string>
<json:string>meaningful deviations</json:string>
<json:string>music perception</json:string>
<json:string>vibrato</json:string>
<json:string>musical performance</json:string>
<json:string>tone groups</json:string>
<json:string>rule system</json:string>
<json:string>music score</json:string>
<json:string>tonal music</json:string>
<json:string>harmonic</json:string>
<json:string>articulation</json:string>
<json:string>ensemble rules</json:string>
<json:string>other words</json:string>
<json:string>musical rhythm</json:string>
<json:string>performance program</json:string>
<json:string>categorical perception</json:string>
<json:string>music communication</json:string>
<json:string>actual performances</json:string>
<json:string>duration categories</json:string>
<json:string>major tonality</json:string>
<json:string>chromatic charge</json:string>
<json:string>perfect synchronization</json:string>
<json:string>independent evidence</json:string>
<json:string>contemporary music</json:string>
<json:string>probe tone</json:string>
<json:string>structural boundaries</json:string>
<json:string>secondary property</json:string>
<json:string>generative rule system</json:string>
<json:string>duration</json:string>
<json:string>note values</json:string>
<json:string>eighth note</json:string>
<json:string>quarter note</json:string>
<json:string>note value</json:string>
<json:string>possible origin</json:string>
<json:string>different categories</json:string>
<json:string>durational contrast</json:string>
<json:string>nominal duration ratio</json:string>
<json:string>input note</json:string>
<json:string>synthesis equipment</json:string>
<json:string>anders friberg</json:string>
<json:string>major chord</json:string>
<json:string>scale tone</json:string>
<json:string>preference quantities</json:string>
<json:string>such performances</json:string>
<json:string>real musicians</json:string>
<json:string>right side</json:string>
<json:string>traditional music</json:string>
<json:string>hierarchical structure</json:string>
<json:string>leap articulation inserts</json:string>
<json:string>certain principles</json:string>
<json:string>different ways</json:string>
<json:string>same group</json:string>
<json:string>slur sign</json:string>
<json:string>leap articulation</json:string>
<json:string>final note</json:string>
<json:string>phrase subphrase</json:string>
<json:string>last note</json:string>
<json:string>grouping rule</json:string>
<json:string>experimental psych</json:string>
<json:string>charge increases</json:string>
<json:string>speech communication</json:string>
<json:string>piano performances</json:string>
<json:string>solo voice</json:string>
<json:string>musical effect</json:string>
<json:string>musical quality</json:string>
<json:string>common time table</json:string>
<json:string>synchronization voice</json:string>
<json:string>musical keys</json:string>
<json:string>deadpan performance</json:string>
<json:string>preferred quantity</json:string>
<json:string>personal communication</json:string>
<json:string>piano sonata</json:string>
<json:string>solo part</json:string>
<json:string>major suite</json:string>
<json:string>standard deviation</json:string>
<json:string>average rating</json:string>
<json:string>musical relevance</json:string>
<json:string>probe chord</json:string>
<json:string>standard scale</json:string>
<json:string>standard cadence</json:string>
<json:string>such deviations</json:string>
<json:string>tone duration</json:string>
<json:string>musical structure</json:string>
<json:string>acoustic signals</json:string>
<json:string>long vowels</json:string>
<json:string>final ritard</json:string>
<json:string>final ritards</json:string>
<json:string>remarkable events</json:string>
<json:string>computer program</json:string>
<json:string>frequency ratios</json:string>
<json:string>acta psych</json:string>
<json:string>speech transmission laboratory quart</json:string>
<json:string>status report</json:string>
<json:string>ensemble music</json:string>
<json:string>chord</json:string>
<json:string>melodic</json:string>
<json:string>grouping</json:string>
</teeft>
</keywords>
<author>
<json:item>
<name>Johan Sundberg</name>
<affiliations>
<json:string>Department of Speech Communication and Music Acoustics, KTH, Box 70014, Stockholm, Sweden</json:string>
</affiliations>
</json:item>
</author>
<subject>
<json:item>
<lang>
<json:string>eng</json:string>
</lang>
<value>Music performance</value>
</json:item>
<json:item>
<lang>
<json:string>eng</json:string>
</lang>
<value>prosody</value>
</json:item>
<json:item>
<lang>
<json:string>eng</json:string>
</lang>
<value>grouping</value>
</json:item>
<json:item>
<lang>
<json:string>eng</json:string>
</lang>
<value>categorical perception</value>
</json:item>
<json:item>
<lang>
<json:string>eng</json:string>
</lang>
<value>musical phrasing</value>
</json:item>
<json:item>
<lang>
<json:string>eng</json:string>
</lang>
<value>musical articulation</value>
</json:item>
</subject>
<arkIstex>ark:/67375/6H6-QG996P40-L</arkIstex>
<language>
<json:string>eng</json:string>
</language>
<originalGenre>
<json:string>Full-length article</json:string>
</originalGenre>
<abstract>Abstract: Music performance is examined using an analysis-by-synthesis method. As a result a note-to-tone conversion program emerged containing a generative rule system for musical performance. Some of these performance rules are presented and discussed. In particular, the purpose of the rules in music communication is analyzed. Three main purposes are identified: (1) differentiation of pitch and duration categories, (2) marking of boundaries between tone groups, and (3) timing and tuning agreement in ensembles. The possible origin of the performance rules is also discussed. Many striking similarities with speech and other types of human communication suggest that expressive details in music performance are not specific to music. On the contrary, they appear to allude to and thus become meaningful because of the listener's extramusical experiences.</abstract>
<qualityIndicators>
<score>8.488</score>
<pdfWordCount>7066</pdfWordCount>
<pdfCharCount>41989</pdfCharCount>
<pdfVersion>1.2</pdfVersion>
<pdfPageCount>15</pdfPageCount>
<pdfPageSize>540 x 735 pts</pdfPageSize>
<refBibsNative>true</refBibsNative>
<abstractWordCount>124</abstractWordCount>
<abstractCharCount>860</abstractCharCount>
<keywordCount>6</keywordCount>
</qualityIndicators>
<title>How can music be expressive?</title>
<pii>
<json:string>0167-6393(93)90075-V</json:string>
</pii>
<genre>
<json:string>research-article</json:string>
</genre>
<serie>
<title>Hamburger Jahrbuch für Musikwissenschaft</title>
<language>
<json:string>unknown</json:string>
</language>
<volume>Vol. 1</volume>
<pages>
<first>195</first>
<last>220</last>
</pages>
</serie>
<host>
<title>Speech Communication</title>
<language>
<json:string>unknown</json:string>
</language>
<publicationDate>1993</publicationDate>
<issn>
<json:string>0167-6393</json:string>
</issn>
<pii>
<json:string>S0167-6393(00)X0077-5</json:string>
</pii>
<volume>13</volume>
<issue>1–2</issue>
<pages>
<first>239</first>
<last>253</last>
</pages>
<genre>
<json:string>journal</json:string>
</genre>
</host>
<namedEntities>
<unitex>
<date>
<json:string>1993</json:string>
<json:string>1970s</json:string>
</date>
<geogName></geogName>
<orgName>
<json:string>Sweden Received</json:string>
<json:string>National Bank of Sweden Tercentenary Foundation</json:string>
</orgName>
<orgName_funder>
<json:string>National Bank of Sweden Tercentenary Foundation</json:string>
</orgName_funder>
<orgName_provider></orgName_provider>
<persName>
<json:string>W.A. Mozart</json:string>
<json:string>Suite</json:string>
<json:string>J. Sundberg</json:string>
<json:string>Carol Krumhansl</json:string>
<json:string>Anders Friberg</json:string>
<json:string>J.S. Bach</json:string>
<json:string>Lars Fryd</json:string>
</persName>
<placeName></placeName>
<ref_url></ref_url>
<ref_bibl>
<json:string>Sloboda, 1983</json:string>
<json:string>Bengtsson and Gabrielsson, 1983</json:string>
<json:string>Friberg et al., 1991b</json:string>
<json:string>Edlund, 1985</json:string>
<json:string>bengtsson and Gabrielsson, 1983</json:string>
<json:string>Van Noorden, 1975</json:string>
<json:string>Clarke, 1982</json:string>
<json:string>Burns and Ward, 1978</json:string>
<json:string>Carlson et al., 1989</json:string>
<json:string>Palmer, 1989</json:string>
<json:string>Sundberg et al., 1989</json:string>
<json:string>Clynes 1983; Taguti and Ohta, 1989</json:string>
<json:string>Krumhansl and Kessler, 1982</json:string>
<json:string>Larsson, 1977</json:string>
<json:string>Gabrielsson (1987)</json:string>
<json:string>Sundberg et al., 1991a, 1991b</json:string>
<json:string>Shaffer, 1980, 1981</json:string>
<json:string>Friberg and Sundberg, 1993</json:string>
<json:string>Repp, 1992</json:string>
<json:string>Sundberg and Verrillo, 1980</json:string>
<json:string>Clarke, 1978</json:string>
<json:string>Sundberg et al., 1991a</json:string>
<json:string>Povel, 1977</json:string>
<json:string>Bengtsson, 1975</json:string>
<json:string>Rasch, 1979</json:string>
</ref_bibl>
<bibl></bibl>
</unitex>
</namedEntities>
<ark>
<json:string>ark:/67375/6H6-QG996P40-L</json:string>
</ark>
<categories>
<wos>
<json:string>1 - science</json:string>
<json:string>2 - computer science, interdisciplinary applications</json:string>
<json:string>2 - acoustics</json:string>
</wos>
<scienceMetrix></scienceMetrix>
<scopus>
<json:string>1 - Physical Sciences</json:string>
<json:string>2 - Computer Science</json:string>
<json:string>3 - Computer Science Applications</json:string>
<json:string>1 - Physical Sciences</json:string>
<json:string>2 - Computer Science</json:string>
<json:string>3 - Computer Vision and Pattern Recognition</json:string>
<json:string>1 - Social Sciences</json:string>
<json:string>2 - Social Sciences</json:string>
<json:string>3 - Linguistics and Language</json:string>
<json:string>1 - Social Sciences</json:string>
<json:string>2 - Arts and Humanities</json:string>
<json:string>3 - Language and Linguistics</json:string>
<json:string>1 - Social Sciences</json:string>
<json:string>2 - Social Sciences</json:string>
<json:string>3 - Communication</json:string>
<json:string>1 - Physical Sciences</json:string>
<json:string>2 - Mathematics</json:string>
<json:string>3 - Modelling and Simulation</json:string>
<json:string>1 - Physical Sciences</json:string>
<json:string>2 - Computer Science</json:string>
<json:string>3 - Software</json:string>
</scopus>
<inist>
<json:string>1 - sciences humaines et sociales</json:string>
</inist>
</categories>
<publicationDate>1993</publicationDate>
<copyrightDate>1993</copyrightDate>
<doi>
<json:string>10.1016/0167-6393(93)90075-V</json:string>
</doi>
<id>FF45AB73A21A00ED6FD30BCF40F0133B0B9FDDD5</id>
<score>1</score>
<fulltext>
<json:item>
<extension>pdf</extension>
<original>true</original>
<mimetype>application/pdf</mimetype>
<uri>https://api.istex.fr/document/FF45AB73A21A00ED6FD30BCF40F0133B0B9FDDD5/fulltext/pdf</uri>
</json:item>
<json:item>
<extension>zip</extension>
<original>false</original>
<mimetype>application/zip</mimetype>
<uri>https://api.istex.fr/document/FF45AB73A21A00ED6FD30BCF40F0133B0B9FDDD5/fulltext/zip</uri>
</json:item>
<istex:fulltextTEI uri="https://api.istex.fr/document/FF45AB73A21A00ED6FD30BCF40F0133B0B9FDDD5/fulltext/tei">
<teiHeader>
<fileDesc>
<titleStmt>
<title level="a">How can music be expressive?</title>
</titleStmt>
<publicationStmt>
<authority>ISTEX</authority>
<publisher>ELSEVIER</publisher>
<availability>
<p>ELSEVIER</p>
</availability>
<date>1993</date>
</publicationStmt>
<notesStmt>
<note type="content">Section title: 7. Music acoustics</note>
</notesStmt>
<sourceDesc>
<biblStruct type="inbook">
<analytic>
<title level="a">How can music be expressive?</title>
<author xml:id="author-0000">
<persName>
<forename type="first">Johan</forename>
<surname>Sundberg</surname>
</persName>
<affiliation>Department of Speech Communication and Music Acoustics, KTH, Box 70014, Stockholm, Sweden</affiliation>
</author>
<idno type="istex">FF45AB73A21A00ED6FD30BCF40F0133B0B9FDDD5</idno>
<idno type="DOI">10.1016/0167-6393(93)90075-V</idno>
<idno type="PII">0167-6393(93)90075-V</idno>
</analytic>
<monogr>
<title level="j">Speech Communication</title>
<title level="j" type="abbrev">SPECOM</title>
<idno type="pISSN">0167-6393</idno>
<idno type="PII">S0167-6393(00)X0077-5</idno>
<imprint>
<publisher>ELSEVIER</publisher>
<date type="published" when="1993"></date>
<biblScope unit="volume">13</biblScope>
<biblScope unit="issue">1–2</biblScope>
<biblScope unit="page" from="239">239</biblScope>
<biblScope unit="page" to="253">253</biblScope>
</imprint>
</monogr>
</biblStruct>
</sourceDesc>
</fileDesc>
<profileDesc>
<creation>
<date>1993</date>
</creation>
<langUsage>
<language ident="en">en</language>
</langUsage>
<abstract xml:lang="en">
<p>Music performance is examined using an analysis-by-synthesis method. As a result a note-to-tone conversion program emerged containing a generative rule system for musical performance. Some of these performance rules are presented and discussed. In particular, the purpose of the rules in music communication is analyzed. Three main purposes are identified: (1) differentiation of pitch and duration categories, (2) marking of boundaries between tone groups, and (3) timing and tuning agreement in ensembles. The possible origin of the performance rules is also discussed. Many striking similarities with speech and other types of human communication suggest that expressive details in music performance are not specific to music. On the contrary, they appear to allude to and thus become meaningful because of the listener's extramusical experiences.</p>
</abstract>
<abstract xml:lang="de">
<p>Zusammenfassung: Die musikalische Ausführung wird durch eine Methode der Analyse durch Synthese untersucht. Daraus wird ein Programm zur Umwandlung von Noten in Töne mit einem System von Regeln zur musikalischen Ausführung abgeleitet. Einige dieser Ausführungsregeln werden beschrieben und kommentiert. Es wird besonders die Zweck dieser Regeln in der musikalischen Kommunikation analysiert. Es wurden drei wichtige Aufgaben identifiziert: (1) die Unterscheidung der Kategorien von Tonhöhe und Tondauer, (2) die Identifizierung der Grenzen zwischen Tongruppen, und (3) die rythmische und tonliche Abstimmung in den Ensembles. Es wird auch der mögliche Ursprung dieser Regeln der musikalischen Ausführung kommentiert. Zahlreiche, überraschende Ähnlickkeiten mit verschiedenen Arten der menschlichen Kommunikation, darunter die Sprache, lassen vermuten, daβ die Einzelheiten des Ausdrucks in der musikalischen Ausführung nicht nur der Musik spezifisch sind. Im Gegenteil, sie scheinen die extra-musikalischen Erfahrungen der Hörer zu anspielen und werden gerade deshalb wichtig.</p>
</abstract>
<abstract xml:lang="fr">
<p>Résumé: L'exécution musicale est examinée par une méthode d'analyse-par-synthèse. On en déduit un programme de conversion de notes à sons comportant un système de régles génératif pour l'exécution musicale. Certaines de ces règles d'exécution sont présentées et commentées. En particulier, on analyse le rôle de ces règles dans la communication musicale. Trois rôles principaux sont identifiés: (1) la différenciation des catégories de hauteur et de durée, (2) l'identification des frontières entre groupes tonaux, et (3) l'accord rythmique et de diapason dans les ensembles. On commente également l'origine possible de ces règles d'exécution musicale. De nombreuses similarités surprenantes avec divers types de communication humaine, dont la parole, suggèrent que les détails expressifs dans l'exécution musicale ne sont pas spécifiques à la musique. Au contraire, elles semblent prendre en compte les expériences extra-musicales des auditeurs et deviennent signifiantes justement grâce à celles-ci.</p>
</abstract>
<textClass>
<keywords scheme="keyword">
<list>
<head>Keywords</head>
<item>
<term>Music performance</term>
</item>
<item>
<term>prosody</term>
</item>
<item>
<term>grouping</term>
</item>
<item>
<term>categorical perception</term>
</item>
<item>
<term>musical phrasing</term>
</item>
<item>
<term>musical articulation</term>
</item>
</list>
</keywords>
</textClass>
</profileDesc>
<revisionDesc>
<change when="1993-05-19">Modified</change>
<change when="1993">Published</change>
</revisionDesc>
</teiHeader>
</istex:fulltextTEI>
<json:item>
<extension>txt</extension>
<original>false</original>
<mimetype>text/plain</mimetype>
<uri>https://api.istex.fr/document/FF45AB73A21A00ED6FD30BCF40F0133B0B9FDDD5/fulltext/txt</uri>
</json:item>
</fulltext>
<metadata>
<istex:metadataXml wicri:clean="Elsevier, elements deleted: tail">
<istex:xmlDeclaration>version="1.0" encoding="utf-8"</istex:xmlDeclaration>
<istex:docType PUBLIC="-//ES//DTD journal article DTD version 4.5.2//EN//XML" URI="art452.dtd" name="istex:docType"></istex:docType>
<istex:document>
<converted-article version="4.5.2" docsubtype="fla">
<item-info>
<jid>SPECOM</jid>
<aid>9390075V</aid>
<ce:pii>0167-6393(93)90075-V</ce:pii>
<ce:doi>10.1016/0167-6393(93)90075-V</ce:doi>
<ce:copyright type="unknown" year="1993"></ce:copyright>
</item-info>
<head>
<ce:dochead>
<ce:textfn>7. Music acoustics</ce:textfn>
</ce:dochead>
<ce:title>How can music be expressive?</ce:title>
<ce:author-group>
<ce:author>
<ce:given-name>Johan</ce:given-name>
<ce:surname>Sundberg</ce:surname>
</ce:author>
<ce:affiliation>
<ce:textfn>Department of Speech Communication and Music Acoustics, KTH, Box 70014, Stockholm, Sweden</ce:textfn>
</ce:affiliation>
</ce:author-group>
<ce:date-received day="3" month="2" year="1993"></ce:date-received>
<ce:date-revised day="19" month="5" year="1993"></ce:date-revised>
<ce:abstract>
<ce:section-title>Abstract</ce:section-title>
<ce:abstract-sec>
<ce:simple-para>Music performance is examined using an analysis-by-synthesis method. As a result a note-to-tone conversion program emerged containing a generative rule system for musical performance. Some of these performance rules are presented and discussed. In particular, the purpose of the rules in music communication is analyzed. Three main purposes are identified: (1) differentiation of pitch and duration categories, (2) marking of boundaries between tone groups, and (3) timing and tuning agreement in ensembles. The possible origin of the performance rules is also discussed. Many striking similarities with speech and other types of human communication suggest that expressive details in music performance are not specific to music. On the contrary, they appear to allude to and thus become meaningful because of the listener's extramusical experiences.</ce:simple-para>
</ce:abstract-sec>
</ce:abstract>
<ce:abstract xml:lang="de">
<ce:section-title>Zusammenfassung</ce:section-title>
<ce:abstract-sec>
<ce:simple-para>Die musikalische Ausführung wird durch eine Methode der Analyse durch Synthese untersucht. Daraus wird ein Programm zur Umwandlung von Noten in Töne mit einem System von Regeln zur musikalischen Ausführung abgeleitet. Einige dieser Ausführungsregeln werden beschrieben und kommentiert. Es wird besonders die Zweck dieser Regeln in der musikalischen Kommunikation analysiert. Es wurden drei wichtige Aufgaben identifiziert: (1) die Unterscheidung der Kategorien von Tonhöhe und Tondauer, (2) die Identifizierung der Grenzen zwischen Tongruppen, und (3) die rythmische und tonliche Abstimmung in den Ensembles. Es wird auch der mögliche Ursprung dieser Regeln der musikalischen Ausführung kommentiert. Zahlreiche, überraschende Ähnlickkeiten mit verschiedenen Arten der menschlichen Kommunikation, darunter die Sprache, lassen vermuten, daβ die Einzelheiten des Ausdrucks in der musikalischen Ausführung nicht nur der Musik spezifisch sind. Im Gegenteil, sie scheinen die extra-musikalischen Erfahrungen der Hörer zu anspielen und werden gerade deshalb wichtig.</ce:simple-para>
</ce:abstract-sec>
</ce:abstract>
<ce:abstract xml:lang="fr">
<ce:section-title>Résumé</ce:section-title>
<ce:abstract-sec>
<ce:simple-para>L'exécution musicale est examinée par une méthode d'analyse-par-synthèse. On en déduit un programme de conversion de notes à sons comportant un système de régles génératif pour l'exécution musicale. Certaines de ces règles d'exécution sont présentées et commentées. En particulier, on analyse le rôle de ces règles dans la communication musicale. Trois rôles principaux sont identifiés: (1) la différenciation des catégories de hauteur et de durée, (2) l'identification des frontières entre groupes tonaux, et (3) l'accord rythmique et de diapason dans les ensembles. On commente également l'origine possible de ces règles d'exécution musicale. De nombreuses similarités surprenantes avec divers types de communication humaine, dont la parole, suggèrent que les détails expressifs dans l'exécution musicale ne sont pas spécifiques à la musique. Au contraire, elles semblent prendre en compte les expériences extra-musicales des auditeurs et deviennent signifiantes justement grâce à celles-ci.</ce:simple-para>
</ce:abstract-sec>
</ce:abstract>
<ce:keywords>
<ce:section-title>Keywords</ce:section-title>
<ce:keyword>
<ce:text>Music performance</ce:text>
</ce:keyword>
<ce:keyword>
<ce:text>prosody</ce:text>
</ce:keyword>
<ce:keyword>
<ce:text>grouping</ce:text>
</ce:keyword>
<ce:keyword>
<ce:text>categorical perception</ce:text>
</ce:keyword>
<ce:keyword>
<ce:text>musical phrasing</ce:text>
</ce:keyword>
<ce:keyword>
<ce:text>musical articulation</ce:text>
</ce:keyword>
</ce:keywords>
</head>
</converted-article>
</istex:document>
</istex:metadataXml>
<mods version="3.6">
<titleInfo>
<title>How can music be expressive?</title>
</titleInfo>
<titleInfo type="alternative" contentType="CDATA">
<title>How can music be expressive?</title>
</titleInfo>
<name type="personal">
<namePart type="given">Johan</namePart>
<namePart type="family">Sundberg</namePart>
<affiliation>Department of Speech Communication and Music Acoustics, KTH, Box 70014, Stockholm, Sweden</affiliation>
<role>
<roleTerm type="text">author</roleTerm>
</role>
</name>
<typeOfResource>text</typeOfResource>
<genre type="research-article" displayLabel="Full-length article" authority="ISTEX" authorityURI="https://content-type.data.istex.fr" valueURI="https://content-type.data.istex.fr/ark:/67375/XTP-1JC4F85T-7">research-article</genre>
<originInfo>
<publisher>ELSEVIER</publisher>
<dateIssued encoding="w3cdtf">1993</dateIssued>
<dateModified encoding="w3cdtf">1993-05-19</dateModified>
<copyrightDate encoding="w3cdtf">1993</copyrightDate>
</originInfo>
<language>
<languageTerm type="code" authority="iso639-2b">eng</languageTerm>
<languageTerm type="code" authority="rfc3066">en</languageTerm>
</language>
<abstract lang="en">Abstract: Music performance is examined using an analysis-by-synthesis method. As a result a note-to-tone conversion program emerged containing a generative rule system for musical performance. Some of these performance rules are presented and discussed. In particular, the purpose of the rules in music communication is analyzed. Three main purposes are identified: (1) differentiation of pitch and duration categories, (2) marking of boundaries between tone groups, and (3) timing and tuning agreement in ensembles. The possible origin of the performance rules is also discussed. Many striking similarities with speech and other types of human communication suggest that expressive details in music performance are not specific to music. On the contrary, they appear to allude to and thus become meaningful because of the listener's extramusical experiences.</abstract>
<abstract lang="de">Zusammenfassung: Die musikalische Ausführung wird durch eine Methode der Analyse durch Synthese untersucht. Daraus wird ein Programm zur Umwandlung von Noten in Töne mit einem System von Regeln zur musikalischen Ausführung abgeleitet. Einige dieser Ausführungsregeln werden beschrieben und kommentiert. Es wird besonders die Zweck dieser Regeln in der musikalischen Kommunikation analysiert. Es wurden drei wichtige Aufgaben identifiziert: (1) die Unterscheidung der Kategorien von Tonhöhe und Tondauer, (2) die Identifizierung der Grenzen zwischen Tongruppen, und (3) die rythmische und tonliche Abstimmung in den Ensembles. Es wird auch der mögliche Ursprung dieser Regeln der musikalischen Ausführung kommentiert. Zahlreiche, überraschende Ähnlickkeiten mit verschiedenen Arten der menschlichen Kommunikation, darunter die Sprache, lassen vermuten, daβ die Einzelheiten des Ausdrucks in der musikalischen Ausführung nicht nur der Musik spezifisch sind. Im Gegenteil, sie scheinen die extra-musikalischen Erfahrungen der Hörer zu anspielen und werden gerade deshalb wichtig.</abstract>
<abstract lang="fr">Résumé: L'exécution musicale est examinée par une méthode d'analyse-par-synthèse. On en déduit un programme de conversion de notes à sons comportant un système de régles génératif pour l'exécution musicale. Certaines de ces règles d'exécution sont présentées et commentées. En particulier, on analyse le rôle de ces règles dans la communication musicale. Trois rôles principaux sont identifiés: (1) la différenciation des catégories de hauteur et de durée, (2) l'identification des frontières entre groupes tonaux, et (3) l'accord rythmique et de diapason dans les ensembles. On commente également l'origine possible de ces règles d'exécution musicale. De nombreuses similarités surprenantes avec divers types de communication humaine, dont la parole, suggèrent que les détails expressifs dans l'exécution musicale ne sont pas spécifiques à la musique. Au contraire, elles semblent prendre en compte les expériences extra-musicales des auditeurs et deviennent signifiantes justement grâce à celles-ci.</abstract>
<note type="content">Section title: 7. Music acoustics</note>
<subject>
<genre>Keywords</genre>
<topic>Music performance</topic>
<topic>prosody</topic>
<topic>grouping</topic>
<topic>categorical perception</topic>
<topic>musical phrasing</topic>
<topic>musical articulation</topic>
</subject>
<relatedItem type="host">
<titleInfo>
<title>Speech Communication</title>
</titleInfo>
<titleInfo type="abbreviated">
<title>SPECOM</title>
</titleInfo>
<genre type="journal" authority="ISTEX" authorityURI="https://publication-type.data.istex.fr" valueURI="https://publication-type.data.istex.fr/ark:/67375/JMC-0GLKJH51-B">journal</genre>
<originInfo>
<publisher>ELSEVIER</publisher>
<dateIssued encoding="w3cdtf">199310</dateIssued>
</originInfo>
<identifier type="ISSN">0167-6393</identifier>
<identifier type="PII">S0167-6393(00)X0077-5</identifier>
<part>
<date>199310</date>
<detail type="volume">
<number>13</number>
<caption>vol.</caption>
</detail>
<detail type="issue">
<number>1–2</number>
<caption>no.</caption>
</detail>
<extent unit="issue-pages">
<start>1</start>
<end>256</end>
</extent>
<extent unit="pages">
<start>239</start>
<end>253</end>
</extent>
</part>
</relatedItem>
<identifier type="istex">FF45AB73A21A00ED6FD30BCF40F0133B0B9FDDD5</identifier>
<identifier type="ark">ark:/67375/6H6-QG996P40-L</identifier>
<identifier type="DOI">10.1016/0167-6393(93)90075-V</identifier>
<identifier type="PII">0167-6393(93)90075-V</identifier>
<recordInfo>
<recordContentSource authority="ISTEX" authorityURI="https://loaded-corpus.data.istex.fr" valueURI="https://loaded-corpus.data.istex.fr/ark:/67375/XBH-HKKZVM7B-M">elsevier</recordContentSource>
</recordInfo>
</mods>
<json:item>
<extension>json</extension>
<original>false</original>
<mimetype>application/json</mimetype>
<uri>https://api.istex.fr/document/FF45AB73A21A00ED6FD30BCF40F0133B0B9FDDD5/metadata/json</uri>
</json:item>
</metadata>
</istex>
</record>

Pour manipuler ce document sous Unix (Dilib)

EXPLOR_STEP=$WICRI_ROOT/Wicri/Musique/explor/XenakisV1/Data/Istex/Corpus
HfdSelect -h $EXPLOR_STEP/biblio.hfd -nk 000749 | SxmlIndent | more

Ou

HfdSelect -h $EXPLOR_AREA/Data/Istex/Corpus/biblio.hfd -nk 000749 | SxmlIndent | more

Pour mettre un lien sur cette page dans le réseau Wicri

{{Explor lien
   |wiki=    Wicri/Musique
   |area=    XenakisV1
   |flux=    Istex
   |étape=   Corpus
   |type=    RBID
   |clé=     ISTEX:FF45AB73A21A00ED6FD30BCF40F0133B0B9FDDD5
   |texte=   How can music be expressive?
}}

Wicri

This area was generated with Dilib version V0.6.33.
Data generation: Thu Nov 8 16:12:13 2018. Site generation: Wed Mar 6 22:10:31 2024