This site uses cookies.
Some of these cookies are essential to the operation of the site,
while others help to improve your experience by providing insights into how the site is being used.
For more information, please see the ProZ.com privacy policy.
This person has a SecurePRO™ card. Because this person is not a ProZ.com Plus subscriber, to view his or her SecurePRO™ card you must be a ProZ.com Business member or Plus subscriber.
Affiliations
This person is not affiliated with any business or Blue Board record at ProZ.com.
Source text - English Science is serious, rational therefore cold; Art is emotional, hence irrational thus dubious. This commonplace notion arises from a culture clash between science and the humanities, which has polarized Western knowledge for the past three hundred years. Yet, a clear division between art and science did not always exist, will not necessarily persist, and is obsolete according to some theoreticians.
Art certainly bears a great deal of responsibility for such a gap. By evolving in the direction of intellectualization and reductionism since the 20th C avant-garde it has distanced itself from common understanding. Today, art is often accused of being cryptic, irreverent, of having narrowed the borders with reality to the point of tautology and become so hard to detect that it relies on a self-generated context to define it. The extraordinary, a prerogative of art throughout centuries represented by outstanding craftsmanship, has been lost in the face of technology. Furthermore, if it is generally sensed that both art and science strive to grasp some kind of essence or truth, science has an inbuilt filtering process that warrants its effectiveness by testing theories against natural phenomena, only preserving as plausible the ones that stand the test. Whereas art offers no testable criteria to assess its quality whose evaluation relies exclusively on the support of a disputable art system (which evolves, not only around conviction and good faith, but also around market speculations and social climbing). It follows that good art coexists next to frivolous, irresponsible activity, muddling up the whole perception of contemporary art.
Translation - Italian La scienza è seria, razionale, dunque fredda; l’arte è emozionale, quindi irrazionale e di conseguenza discutibile.
Questo luogo comune nasce dallo scontro fra scienza e dottrine umanistiche che ha polarizzato la cultura occidentale negli ultimi trecento anni. Eppure una divisione netta fra arte e scienza non è sempre esistita, non è necessariamente destinata a durare e, secondo alcuni teorici, è obsoleta.
L’arte ha certamente una grossa responsabilità nell’aver accentuato tale divario. Nel XX secolo, l’affermarsi dell’avanguardia ha dato inizio ad un processo d’intellettualizzazione e tendenza al riduzionismo che ha allontanato l’arte dalla sfera della comprensione comune. Oggi, l’arte viene spesso accusata di essere criptica e irriverente, di aver assottigliato i confini con la realtà fino alla tautologia, di essere così difficile da individuare che i suoi criteri di definizione si fondano su un contesto auto-generato. Lo straordinario, frutto del magnifico artigianato che ha sempre caratterizzato l’arte, è andato perduto con l’affermarsi della tecnologia. Inoltre, pur riconoscendo all’arte ed alla scienza la caratteristica comune di tentare di cogliere una qualche forma di essenza o di verità, la scienza possiede un innato processo di filtraggio che ne garantisce l’efficacia nel testare le teorie fondandosi sul riscontro dei dati sperimentali; l’arte, invece, non possiede dei criteri di valutazione oggettiva, a valutarla è esclusivamente un sistema dell’arte opinabile basato non solo sulla convinzione personale o la buona fede, ma anche sulle logiche di mercato e l’arrivismo. Ne consegue che la buona arte convive con attività frivole ed irresponsabili dando origine ad una visione distorta dell’arte contemporanea.
Italian to English: Vision as Epistemological Metaphor: Emergence and Logical Openness
Source text - Italian Negli ultimi anni il dibattito sulla complessità si è sviluppato impetuosamente in senso trans-disciplinare per rispondere al bisogno di spiegare il venire alla luce di comportamenti collettivi altamente organizzati e sofisticati arrangiamenti gerarchici nei sistemi fisici, biologici, cognitivi e sociali. Purtroppo non si è arrivati affatto ad una definizione chiara, in tal modo la complessità appare come un paradigma anti-riduzionista in cerca di una teoria.
In questa breve rassegna il nostro obiettivo è quello di suggerire una chiarificazione in relazione alle nozioni di emergenza computazionale ed intrinseca, e di mostrare come la seconda sia profondamente connessa alla nuova teoria dell’apertura logica, un’originale estensione del teorema di Godel alla teoria dei modelli. Lo scenario epistemologico che utilizzeremo è quello, particolarmente istruttivo, della teoria della visione. Il vedere è infatti un elemento del nostro rapporto primordiale con il mondo, e non dovremmo quindi stupirci se un’attenta considerazione dei processi di percezione visuale può condurci direttamente ad alcuni problemi significativi in grado di delineare il modello di una storia naturale della conoscenza. In greco, “teoria” e “visione” hanno la stessa etimologia, in entrambi i casi infatti sarà possibile stabilire una precisa analogia tra le modalità con cui si realizza la visione e quelle che utilizziamo per “vedere e costruire il mondo” (N. Goodman, 1978 ) , poiché entrambe ci diranno qualcosa sul ruolo centrale dell’osservatore e sulla complessità semantica delle strategie cognitive.
2. Riduzionismo ed oggettivismo naive
Gran parte dei problemi nel mettere a fuoco il concetto di complessità derivano proprio da un’indebita estensione di quell’ “oggettivismo” naive che rappresenta la deriva concettuale del riduzionismo. Quest’ultimo è un utilissimo strumento che ha assicurato alle scienze fisiche uno sviluppo prodigioso, ma inteso come metodo unico ed universale porta con sé un postulato nascosto, apparentemente innocuo e naturale, ossia che il mondo sia “già lì”, indipendente dall’osservatore, organizzato in livelli e riconducibile ad una catena di teorie connesse logicamente l’una con l’altra e che ogni livello di descrizione sia ricavabile dal precedente soltanto utilizzando opportune tecniche matematiche e, al più, “leggi-ponte”.
La complessità che corrisponde a questa visione è la complessità algoritmica ( Chaitin,2007 ) , che misura la quantità di informazione che una macchina di Turing deve elaborare per risolvere un problema in funzione dello spazio (lunghezza del programma) e del tempo di elaborazione. E’ interessante notare che una concezione di questo genere accomuna l’intelligenza artificiale e le recenti “teorie del tutto”: in entrambi i casi infatti un “demone” di Laplace (Hahn, 2005 ) può risolvere una “mente” in termini puramente sintattici proprio come riduce la varietà del mondo fisico ad una nutshell di particelle ed interazioni fondamentali. Analogamente, in un universo di questo tipo non può esserci alcuna autentica “novità”, e l’unica emergenza rilevabile è di tipo computazionale( rilevazione di patterns) ricavata a partire dalla compressione algoritmica fondamentale
Un esempio di questo tipo di emergenza sono i sistemi caotici non-lineari , in cui la viene a mancare la predicibilità long-range ma non la possibilità di computare step-by-step la traiettoria del sistema nello spazio della fasi. Benchè non siano mancate le critiche radicali a questa accezione ingenua del riduzionismo (Anderson, 1979; Laughlin, 2006 Laughlin e Pines, 1999; Laughlin, Pines et al., 2000) e si sia osservato come una descrizione di questo tipo sia realizzabile soltanto in sistemi classici (Licata, 2008a), l’oggettivismo naive e l’indipendenza dall’osservatore è ancora uno dei postulati dominanti nella concezione dell’attività scientifica. Per trovare un’alternativa è necessario rivolgersi ad una teoria dinamica dei rapporti tra osservatore ed osservato che tenga in conto i processi co-adattativi e la natura ecologica delle relazioni tra mente e mondo.
Translation - English In the last years the debate on complexity has been developing and developing in transdisciplinary way to meet the need of explanation for highly organized collective behaviors and sophisticated hierarchical arrangements in physical, biological, cognitive and social systems. Unfortunately, no clear definition has been reached, so complexity appears like an anti-reductionist paradigm in search of a theory.
In our short survey we aim to suggest a clarification in relation to the notions of computational and intrinsic emergence, and to show how the latter is deeply connected to the new Logical Openness Theory, an original extension of Gödel theory to the model theory. The epistemological scenario we are going to make use of is that of the theory of vision, a particularly instructive one. Vision is an element of our primordial relationship with the world; consequently it comes as no surprise that carefully taking into consideration the processes of visual perception can lead us straight to some significant questions useful to delineate a natural history of knowledge. The common Greek etymological root of “theory” and “vision” sounds like a metaphor pointing out the analogy between the modalities of vision and those we use “to see and build the world” (N. Goodman), because them both can say us something about the central role of the observer and the semantic complexity of cognitive strategies.
2) REDUCTIONISM AND NAÏVE OBJECTIVISM
Most of the problems in focusing the notion of complexity just come from the unsuitable extension of that naïve objectivism which represents the conceptual driftage of reductionism. This one is very useful a tool which has guaranteed Physics a considerable success; but when it is regarded as the unique and universal method an hidden postulate, apparently innocuous and natural, comes out: the world is “out there”, independent from the observer, organized by levels, explicable by means of a chain of theories logically connected and each description level can be derived from the previous one simply by using proper mathematical techniques and, at the most, “bridge-laws”.
Such kind of complexity corresponds to the algorithmic complexity (Chaitin); it measures the information that a Turing machine has to process to solve a problem in relation to the processing time and space (program length). It is interesting noticing how Artificial Intelligence and the current Everything Theories share the same conception: a Laplace’s demon (Laplace) can solve “mind” in purely syntactical terms just in the same way as it reduces the physical world variety to a nutshell of fundamental particles and interactions. Similarly, in such a Universe nothing authentically new can turn out, and the only detectable emergence is the computational one (detection of patterns) which is obtained by the fundamental algorithmic compression.
An example of the above-mentioned emergence is well represented by the non-linear chaotic systems. There, the long-rage predictability is missing, but it is possible the step-by-step computation of the system’s trajectories in the phase space. Even if such ingenuous idea of reductionism has been radically criticized (Laughlin, Laughlin e Pines, Laughlin, Pines et al.) and it has been observed that this kind of description can only be fulfilled within classical systems (Licata, 2008), naïve objectivism and the independence from the observer are still the dominant postulates in the scientific activity conception.
In order to find an alternative we have to look at a dynamic theory of relationship between the observer and the observed which takes into account the co-adaptive processes as well as the ecological nature of the mind/world relations.