Pubblicato in: Devoluzione socialismo, Scienza & Tecnica

Clima. Il riscaldamento antropico non esiste. – Corriere.

Giuseppe Sandro Mela.

2018-04-13.

2018-04-09__clima__001

Il riscaldamento antropico ha poco o punto a che fare con le variazioni climatiche.

Germania. I negazionisti della stabilità climatica gettano la spugna.

Secondo i ‘climatologi’ l’Artico avrebbe dovuto sciogliersi nel 2012.

Arctic Sea Ice Gone in Summer Within Five Years?

Goodbye to an unrealistic climate goal

Trump. ‘Clima’ addio. Deobamizzazione a ritmo continuo.

Trump taglia la National Oceanic and Atmospheric Administration

Petizione di 300 scienziati perché Mr Trump ritiri gli Usa dall’accordo di Parigi.

*

Per parlare in termini politicamente corretti, il ‘clima‘, ossia l’asserzione che esista il riscaldamento antropico, è stato ed è una gigantesca truffa volta ad acquisire gigantesche risorse economiche pubbliche da utilizzasi per finanziare realtà vicine o gestite direttamente dai liberal, che ne hanno tratto congruo sostentamento.

Di questi giorni è uscito un articolo di Mauro della Porta Raffo, per i tipi del Corriere della Sera.

Prende atto coraggiosamente della verità.

Constatiamo con piacere come persino il Corriere della Sera, per decenni corifeo dell’ideologia liberal e socialista, stia facendo marcia indietro, a tutta forza.

E questi sono solo a poco più di un mese dal 4 marzo. Figuriamoci cosa sarà tra un anno.


Corriere. 2018-04-08. Riscaldamento antropico: la verità

L’inquinamento causato dall’uomo ha niente o pochissimo a che fare col riscaldamento globale (naturale) ma moltissimo, tutto, a che vedere con il degrado della Terra.

*

L’Alaska?
Abbiamo studi assolutamente precisi a proposito del clima in Alaska. Accurati e recenti – pubblicati nel 2001 – dimostrano che tra l’1 e il 300 dopo Cristo, tra l’850 e il 1200 e dopo il 1800 le temperature colà sono state particolarmente alte. Negli intermedi, basse.

Non che i dati concernenti l’estesissimo Stato Usa possano essere considerati in relazione al pianeta Terra nel suo complesso. Ma – in particolare riguardo all’emisfero settentrionale – confermano, per quanto attiene ai periodi indicati, il susseguirsi dell’Optimum Climatico Medievale (altresì noto come Periodo Caldo Medievale), della Piccola Età Glaciale e, più indicativamente non dall’anno 1800 ma dalla metà dell’Ottocento, del Nuovo Periodo Caldo.

(Differenti rilevazioni concernono il primo dei lassi temporali elencati – dall’1 al 300 – il Periodo Caldo Romano).

Conferme ulteriori arrivano da studi specifici quanto alle variazioni delle temperature dei mari nonché di altre zone del preindicato emisfero nord. Come ebbi ad affermare (e qui ribadisco) sul Corriere della Sera in un lungo ed articolato intervento il 18 agosto 2009 (provocando irritate ed irrazionali reazioni – non prive di insulti – da parte dei catastrofisti e un gradito seppur parziale riconoscimento a firma Giovanni Sartori), il riscaldamento climatico attuale è del tutto naturale facendo storicamente seguito, non solo alle naturalissime variazioni poco fa ricordate, altresì alle infinite precedenti almeno a far luogo da 10700 anni fa, inizio teorico dell’attuale «periodo interglaciale».

Va qui ripetuto poi che ogni riferimento al cosiddetto Effetto Serra come a qualcosa di negativo già conferma che i cosiddetti «esperti» («persone che hanno smesso di ragionare» secondo Frank Lloyd Wright) non sanno di cosa parlano.
Se, difatti, tale Effetto non esistesse la temperatura media sul pianeta sarebbe decisamente inferiore e la vita avrebbe avuto molte difficoltà a svilupparsi.

È l’aberrazione dell’Effetto il pericolo.

L’aberrazione, l’alterazione, non la sua esistenza!

Devo qui infine ripetere che non esiste dimostrazione alcuna del fatto che il Buco dell’ozono esista da sempre visto che non era scientificamente possibile rilevarlo, che so?, ai tempi dei Romani o anche solo cento anni fa. Che la «scoperta, di fenomeni quali il Niño e la Niña definiti «nuovi» è ridicola.

Come ho scritto negli anni Ottanta – quando si cominciò a parlarne come appunto ‘novità climatiche’ – i termini Niño e Niña sono spagnoli e fanno riferimento, dai tempi dei conquistadores, al fatto che il primo aveva luogo (ovviamente, da sempre) periodicamente verso Natale ed essendo nella lingua di Cervantes chiamato Niño il Banbino Gesù…

Tutto ciò detto e ripetuto, l’uomo è il peggiore degli esseri viventi e la sua azione devastante. L’inquinamento antropico ha niente o pochissimo a che fare col riscaldamento globale (naturale) ma moltissimo, tutto, a che vedere con il degrado della Terra.

È per combattere tale degrado che si deve agire. Non lo si fa assolutamente essendo, risultando più facile, economicamente e politicamente assai più remunerativo sbraitare ed agitarsi demagogicamente senza senso.
E se cominciassimo a ripulire gli oceani? E se eliminassimo la plastica, flagello dell’umanità?

E se educassimo con la sferza e il bastone le nuove generazioni? Sogno. Quando si raggiunge il fondo qualcuno comincia a scavare!

Annunci
Pubblicato in: Devoluzione socialismo, Istruzione e Ricerca, Scienza & Tecnica, Unione Europea

Il Consiglio Europeo finanzia 269 ricercatori top: tutti snobbano l’Italia.

Giuseppe Sandro Mela.

2018-04-12.

Denaro__009

Il Consiglio Europeo della Ricerca ha finanziato con 653 milioni di euro 269 ricercatori di provata esperienza, conferendo loro grant per circa due milioni e mezzo l’uno.

Tranne i pochissimi ricercatori italiani, nessuno dei vincitori ha scelto l’Italia come paese ove poter sviluppare le proprie ricerche, pur portandosi dietro fondi di tutto rispetto.

Questo fatto dovrebbe dare da pensare.

*

European Research Council invests in research and innovation [Scitech Europa]

«€653m of EU funding will go to 269 senior researchers across Europe, giving them a chance at developing their research and innovation ideas and produce results that will have a major impact on science, society and the economy.

The funding announced today (6 April) will benefit 269 researchers in the research and innovation sector. The grants of up to €2.5m per project are selected by the European Research Council (ERC) and financed through Horizon 2020, the EU Research and Innovation programme.

The research of these new grantees covers all fields of research. For example: one grantee in France is to explore the use of underwater communication cables in earthquake warning systems, while another in London, UK, will examine the causes and consequences of electoral hostility, and a scientist in Ljubljana, Slovenia, will build molecular machines based on proteins.»

*

L’Italia ne esce con le ossa rotte.

«Siamo quinti tra le nazionalità preceduti da britannici (50 grant), tedeschi (40 grant), francesi (29) e spagnoli (21): sono infatti 16 in tutto i ricercatori italiani che hanno vinto una borsa e 11 hanno deciso di restare in Italia mentre gli altri 5 (come è normale che accada nella ricerca) hanno scelto laboratori di altri Paesi.»

Solo 16 italiani hanno vinto un grant, ossia il 5.95% (100* 16 / 269),

contro il 18.59% del Regno Unito ed i 40 (14.87%) della Germania.

Ma la cosa peggiore di tutte è che  

«nessuno degli oltre 250 ricercatori stranieri “premiati” con un grant ha scelto un laboratorio, università o centro di ricerca del nostro Paese per spendere i suoi ricchi fondi».

*

I motivi di questa débâcle sono noti da tempo, ma nessuno dei governi precedenti ha mai fatto qualcosa perché sarebbe andato contro i propri interessi di vilissima bottega.

Università ed enti di ricerca italiani sono la negazione vivente del principio meritocratico: ciò che conta è, almeno fino ad oggi lo era, la tessera di partito o l’affiliazione ad una loggia potente.

Un esempio?

prof. Mario Monti. L’unico economista con una sola citazione scientifica in tutta sua vita.

L’Agenzia nazionale di valutazione del sistema universitario e della ricerca (in acronimo ANVUR) è un ente pubblico della Repubblica Italiana, vigilato dal Ministero dell’istruzione, dell’università e della ricerca (MIUR).

Questo ente è la quintessenza della burocrazia al servizio del potere: giudica il livello scientifico di ricercatori ed enti.

«L’Anvur è uno di quei carrozzoni che sfuggono alla immaginazione dei semplici. Come se non bastasse la Thomson Reuters, Isi, punto di riferimento mondiale cui fan capo tutte le università di tutto il mondo, l’Anvur stila le graduatorie dei ricercatori e degli istituti di ricerca nazionali. La capacità scientifica ed il successo internazionale non solo non sono nemmeno un optional, ma sono anche situazioni noiose da conculcare con forza.

Ciò che conta è essere nel cuore del partito democratico. ….

Lo scorso anno un ricercatore italiano da tempo residente all’estero, ove in breve è diventato rettore di uno dei più famosi atenei mondiali, ha fatto umile richiesta all’Anvur di essere valutato se fosse stato considerato degno di poter poi partecipare al concorso di idoneità, propedeutico al poter fare un concorso per l’entry level universitario. Un po’ come se Mattarella avesse chiesto di essere valutato se fosse idoneo a fare l’usciere a Montecitorio.

Bocciato, ed anche malo modo.» [Fonte]

*

Quanti si stiano chiedendo come sia stata possibile una simile bruttura, possono leggere questo documentato articolo, leggendo anche gli allegati:

Mistica del femminismo e del gender in Università. A spese del Contribuente.

*

In sintesi.

Il Contribuente italiano paga tasse lorde del proprio sangue per far studiare i meritevoli stranieri.


Erc Europe. 2018-04-07. From babies’ brains to bacterial warfare: ERC invests €650 million in ground-breaking research

How does air pollution affect the development of baby’s brains? Can innovative heart regeneration treatments increase the long-term survival of heart attack victims? How did non-living matter evolve into living systems that established themselves on Earth? Why are bacteria extremely aggressive towards one another? These are some of the issues that leading researchers will be exploring thanks to Advanced Grants from the European Research Council. This EU funding, worth a total of €653 million, announced today will benefit 269 senior researchers across Europe, giving them a chance to realise their most creative ideas and potentially produce results that will have a major impact on science, society and the economy. The grants are part of the EU’s Research and Innovation programme, Horizon 2020.

On this occasion, Carlos Moedas, European Commissioner for Research, Science and Innovation, said: “The ERC’s Advanced Grant scheme has supported outstanding and established research leaders since 2007. It provides a great example of how EU funding can help expand the frontiers of scientific knowledge, providing the resources necessary to continue ground-breaking, high-risk projects, and ensure Europe’s global competitiveness.”

The President of the ERC, Professor Jean-Pierre Bourguignon, commented: “The diversity and boldness of the research in this latest funding round are once again impressive. The selected researchers explore the brink of the unknown, the ideal setting to make breakthroughs. If the past is any guide to the future, the ERC is set to continue betting on audacious scientific projects – the latest review shows again that over 70% of ERC-funded research led to discoveries and major scientific advances. But there are many more bright minds with ambitious ideas in Europe that the ERC could fund if we had more means. That’s why the ERC Scientific Council argues for more resources for the future while keeping the strategy of using scientific quality as the only criterion for selection.”

The research of these new grantees covers all fields of scholarship. One grantee in France will explore using underwater communication cables in earthquake warning systems. Another scholar in London will investigate the causes and consequences of electoral hostility and a scientist in Ljubljana will build a new class of molecular machines based on proteins.


World University Ranking. 2018-04-07. UK re-establishes dominance in ERC advanced grants scheme

Academics at British institutions make one in four successful bids in 2017 funding round.

One in four grants under one of the European Union’s most prestigious research funding programmes has been awarded to UK-based researchers, allaying some fears about the early impact of the Brexit vote but underlining the risk facing British universities if their access to the scheme is curtailed.

The European Research Council said on 6 April that scholars based at UK universities had made 66 successful bids for advanced grants, typically worth up to €2.5 million (£2.2 million) each, more than any other country.

Advanced grants are aimed at established researchers and require no consortia or co-funding. The ERC awarded 269 grants in total, worth €653 million, with Germany (42), France (34) and Switzerland (24) the next most successful nations.

The UK’s success in the 2017 funding round represents a recovery from the 2016 competition, when the UK secured only 41 advanced grants and was outperformed by Germany for the first time.

It also contrasts with the UK’s weakening performance in some collaborative EU research programmes in the wake of the country’s decision to leave the bloc. UK universities suffered a sharp drop of close to half a billion euros in the value of EU projects that they started coordinating in the year after the Brexit referendum.

However, the UK’s continuing participation in EU-funded research post-Brexit remains in doubt, with Sam Gyimah, the universities minister, refusing to commit to associate membership of the next framework programme.

With 2,167 applications having been submitted for advanced grants in 2017, down from about 2,400 the year before, the success rate rose from 9.6 per cent to 12.4 per cent. The ERC funded 83 projects in the life sciences, 126 in the physical sciences and engineering, and 60 in the social sciences and humanities.

Just 17 per cent of advanced grants were awarded to female researchers in 2017, although this was in line with the proportion of applicants who were female.

Jean-Pierre Bourguignon, the president of the ERC, said that the advanced grants would fund “audacious” scientific projects that were likely to lead to significant breakthroughs.

“There are many more bright minds with ambitious ideas in Europe that the ERC could fund if we had more means,” Professor Bourguignon said. “That’s why the ERC scientific council argues for more resources for the future while keeping the strategy of using scientific quality as the only criterion for selection.”

The ERC said that the 2017 advanced grants would likely create an estimated 2,000 jobs for postdocs, PhD students and other staff in grantees’ research teams.


Sole 24 Ore. 2018-04-07. I 269 super-cervelli d’Europa snobbano l’Italia

I migliori cervelli d’Europa snobbano l’Italia. Se i nostri ricercatori sono comunque tra i migliori del Vecchio Continente c’è sicuramente un problema di scarsissima attrattività dei nostri centri di ricerca e delle nostre università all’estero. Dall’ultimo round di fondi che Bruxelles ha assegnato a 269 ricercatori top emerge infatti che nessun straniero ha scelto un laboratorio italiano. Paura della burocrazia? O magari di condizioni non proprio competitive per fare ricerca (dai fondi al contagocce alle strutture spesso non all’avanguardia)? L’unica certezza è che tra i grandi Paesi d’ Europa siamo l’unico a non ospitare un supercervello che non sia italiano.

Se c’è una storia di successo in Europa è quella dei fondi per la ricerca e dei progetti finanziati dall’Erc – il Consiglio europeo della ricerca – che in 10 anni di vita ha finanziato con 12 miliardi oltre 7mila supercervelli della ricerca (compresi 6 premi Nobel e 5 medaglie fields). I grant dell’Erc sono i più prestigiosi riconoscimenti a livello europeo anche perché i più ricchi: nel nuovissimo round da 650 milioni sono state assegnati 269 advanced grant (le borse per chi è al top della carriera scientifica) del valore in media di 2,5 milioni l’una ad altrettanti ricercatori. La notizia è che in questa corsa dove vince il miglior progetto l’Italia ne esce con le ossa rotte perché nessuno degli oltre 250 ricercatori stranieri “premiati” con un grant ha scelto un laboratorio, università o centro di ricerca del nostro Paese per spendere i suoi ricchi fondi. Ne escono meglio i ricercatori italiani. Siamo quinti tra le nazionalità preceduti da britannici (50 grant), tedeschi (40 grant), francesi (29) e spagnoli (21): sono infatti 16 in tutto i ricercatori italiani che hanno vinto una borsa e 11 hanno deciso di restare in Italia mentre gli altri 5 (come è normale che accada nella ricerca) hanno scelto laboratori di altri Paesi. All’estero infatti almeno una parte dei progetti è guidata da ricercatori stranieri ospiti. Quello che non torna è che nessuno dall’estero abbia scelto l’Italia. Un dato, questo, che indica come non siamo un Paese “attraente” per fare ricerca.

Secondo l’Erc i nuovi fondi permetteranno di creare 2.000 posti fra ricercatori, dottorandi e altri membri dei gruppi di ricerca. I 269 progetti finanziati dall’Erc equivalgono al 12% delle 2.167 proposte presentate inizialmente e fra le quali sono stati selezionati. Dei progetti approvati, inoltre, solo il 17% sono coordinati da ricercatrici. La classifica dei Paesi con il più alto numero di progetti ospitati – un termometro dell’attrattività scientifica – vede in testa la Gran Bretagna con 66 progetti, seguita da Germania (42), Francia (34), Svizzera (24), Spagna (18), Olanda (16) e Israele (13) . All’ottavo posto c’è l’Italia con 11 ricercatori (tutti italiani) con progetti che spaziano nei campi più disparati. Nell’ambito della Fisica e dell’Ingegneria – con algoritmi per capire i meccanismi del commercio online e studi sul comportamento collettivo di sistemi biologici – si collocano 6 ricerche. Quattro appartengono al campo delle Scienze umanistiche e sociali, dagli avatar virtuali per imparare l’onestà a ricostruzioni di una nuova lingua scritta usata nell’antichità e nel Medioevo. Gli ultimi 2 progetti per le Scienze della Vita: la rigenerazione cardiaca per curare l’infarto e i vaccini come rimedio alle infezioni batteriche resistenti agli antibiotici.

Guardando la lista di università e centri di ricerca coinvolti, il grande assente è il Sud. Ad aggiudicarsi i fondi sono infatti cinque regioni di Nord e Centro: Trentino, con Università di Trento e Fondazione Bruno Kessler; Friuli con l’Università di Trieste; Lombardia con l’Università Commmerciale Bocconi e quella di Pavia; Toscana con Università di Pisa e Fondazione Toscana Life Sciences; Lazio con Consiglio Nazionale delle Ricerche (Cnr) e l’Università Sapienza di Roma, con ben 3 progetti. Per il presidente dell’Erc, Jean-Pierre Bourguignon, «la diversità e l’audacia delle ricerche presentate quest’anno sono ancora una volta impressionanti». I progetti selezionati, ha aggiunto, «si avventurano in territori inesplorati, l’ideale per nuove scoperte».

Pubblicato in: Devoluzione socialismo, Economia e Produzione Industriale, Scienza & Tecnica

Illusioni ed allucinazioni che uccidono. Solo che non crepano gli illusi.

Giuseppe Sandro Mela.

2018-03-23.

Allucinazioni 001

Treccani ci aiuta a definire bene i termini che saranno usati.

«Illusione: In genere, ogni errore dei sensi o della mente che falsi la realtà. In psicologia, ogni percezione della realtà falsata dall’intervento di elementi rappresentativi associati allo stimolo sensoriale così strettamente da essere considerati di natura oggettiva e riferiti all’oggetto che il soggetto crede di percepire»

*

«Allucinazione: Fenomeno psichico, provocato da cause diverse, per cui un individuo percepisce come reale ciò che è solo immaginario»

*

Chiunque abbia dovuto cimentarsi con i problemi reali della produzione, ossia quando si investono denari propri o di persone permalosissime ed intolleranti le perdite, sa di persona quanto siano pericolosi i tecnici e gli entusiasti di un tecnica.

La prima categoria, i tecnici, riducono quel complesso sistema che è un investimento produttivo al solo fatto tecnico: sembrano quasi impossibilitati a vedere tutte le altre componenti, che di norma surclassano ampiamente l’aspetto tecnologico. Non da ultimo certamente il rapporto prestazioni / costi.

La seconda categoria, gli entusiasti di una tecnica, sono ancor più pericolosi ed ancor meno facilmente gestibili. Sono convinti che la tecnologia del cuore possa risolvere tutti i problemi, vorrebbero affrontare tutto con la stessa tecnologia, ed infine sono coattamente convinti che l’universo intero dovrebbe avere le loro stesse idee. Stirpe estremamente pericolosa quando occupa un qualche posto in un catena produttiva.

Tenere a bada i tecnici e neutralizzare gli entusiasti è la prima operazione che un manager dovrebbe fare almeno per contenere i costi di gestione ed evitarsi poi il licenziamento da parte degli azionisti inferociti.

I tecnici nutrono illusioni, gli entusiasti invece pure e semplici allucinazioni.

*

Nessuno nega la utilità e la necessità di fare ricerca, di innovare la produzione, di immettere sul mercato realtà innovative, talora anche rivoluzionarie. Anzi, questo settore è vitale al comparto produttivo.

Esso tuttavia ha dei limiti, che il sano buon senso individua con grande facilità.

La fase di ricerca deve proseguire fino a tanto che il prodotto sia stato messo a punto in modo completo: questa fase può essere terminata solo a prodotto effettivamente ed ampiamente collaudato.

Poi, tale prodotto dovrà essere valutato nella sua componente ricavi / costi. Un prodotto innovativo potrebbe uccidere una produzione tecnicamente obsoleta ma gratificante economicamente.

*

Nel caso specifico di questo articolo, nulla e nessuno ha preconcetti sulla possibilità di avere mezzi di trasporto, automobili, pullman, autocarri o camion a guida parzialmente o totalmente automatica.

È però del tutto inaccettabile che si facciano circolare sulle pubbliche strade mezzi la tecnologia dei quali è ancora incompleta. Nulla da eccepire che siano testati su piste idonee, chiuse al pubblico: condanna senza possibilità di appello alla loro circolazione sulle strade.

Che un sistema di guida non sappia riconoscere un semaforo rosso, non sappia individuare un camion fermo al bordo della strada, non sappia vedere un pedone che attraversa, non sappia identificare un motociclista in via di sorpasso non scandalizza nessuno: è solo un sistema da migliorare ulteriormente.

Ciò che da scandalo è che li si faccia circolare. Ammazzando gente innocente.

Al momento attuale, tali mezzi hanno in media un incidente ogni due ore di movimento: fossero un cristiano, gli avrebbero ritirato la patente e da un bel pezzo.

Quando poi c’è il morto ammazzato il guidatore finisce in una casa circondariale, ed anche per un lungo periodo detentivo.

*

È fenomeno tipico della generazione dei video games illudersi che la realtà sia simile. Che vada bene ci si illude, ma spesso si hanno allucinazioni.  

«la tecnologia non permette ancora di affidarsi completamente al sistema di controllo automa»

Bene: si prenda atto di questo statement e non si facciano circolare automotive senza pilota.

Nota.

La disgrazia delle disgrazie è che a lasciarci la pelle è gente innocente, non gli allucinati strenui sostenitori delle auto senza pilota.


Primo incidente mortale su un’auto senza pilota

«È avvenuto in Usa, i sensori della Tesla non hanno visto un camion. Fra i dubbi anche quello sulla responsabilità legale dell’accaduto.

Il primo incidente mortale con un’auto senza pilota è avvenuto il 7 maggio scorso in Florida. Una Tesla Model S non ha visto un camion che attraversava la strada e non ha frenato. Lo hanno rivelato le autorità della National Highway Traffic Safety Administration, che hanno aperto un’inchiesta, rilanciando il dibattito sulla sicurezza delle auto che si guidano da sole. 

La Tesla stava viaggiando sulle strade di Williston e a bordo c’era Joshua Brown, un quarantenne dell’Ohio che aveva servito nelle truppe speciali dei Navy Seal, prima di fondare una sua compagnia dedicata all’innovazione tecnologica. Era un veterano di questi test, e aveva messo online diversi video delle prove fatte in passato. 

Arrivata a un incrocio, l’auto non si è accorta che un camion stava girando verso sinistra. Secondo la Tesla tanto i computer di bordo, quanto il guidatore, non hanno notato il mezzo perché era bianco e il cielo era molto illuminato. La Model S non ha frenato, e Brown non ha avuto la prontezza di prendere i comandi per farlo lui. Frank Baresi, che guidava il camion, ha detto che l’auto andava a forte velocità e il passeggero probabilmente stava guardando un film. La macchina si è infilata sotto l’altro mezzo da trasporto e poi è uscita di strada, andando a sbattere contro due recinzioni e un palo. Brown è morto sul colpo.»


Tesla, un altro incidente mortale per l’auto senza pilota. La dash-cam filma tutto

«L’incidente è avvenuto nel gennaio scorso, ma in Cina la notizia è stata diffusa solo ieri. E risale a luglio la querela che la famiglia di Gao Yaning, 23 anni, ha presentato in un tribunale di Pechino contro Tesla e il concessionario con sede a Pechino che aveva venduto l’auto al giovane. L’auto senza pilota dell’azienda Usa miete, così un’altra vittima. L’altro impatto mortale si è verificato in Florida a maggio, quando la vettura senza pilota di un ex marine si è infilata sotto il rimorchio di un tir. Il computer di bordo non ha visto un rimorchio fermo in autostrada sulla corsia di sorpasso. La dash-cam di Tesla ha filmato tutto. Ecco le immagini.»

L’auto senza pilota non frena, passante uccisa

«La vittima è una donna: tentava di attraversare la strada in una città dell’Arizona.

L’idea di invadere le strade con le auto senza conducente in meno di 18 mesi evidentemente era un po’ troppo ottimistica. E forse non aveva tenuto conto dell’altro grave incidente avvenuto lo scorso anno, casualmente sempre a marzo e sempre in Arizona. La sperimentazione era stata sospesa solo temporaneamente e ieri, nella stessa città, il programma di Uber è andato nuovamente fuori strada.»


Uber, incidente mortale, bloccato il progetto dell’auto a guida autonoma

«”Uber: incidente mortale, sospesi i test delle auto autonome”: la notizia sta facendo il giro del mondo e lo stop alla sperimentazione arriva in tutte le città dove sono in corso le prove, ossia Tempe, Pittsburgh, San Francisco e Toronto. Uber da parte sua ha dichiarato che la compagnia “collabora pienamente” con le autorità locali e il Ceo Dara Khosrowshahi ha espresso le condoglianze alla famiglia della donna.»


Nuovo incidente fra auto senza pilota e moto

«C’è un nuovo incidente fra un’auto a guida automatica e una moto. È successo a San Francisco il 7 dicembre scorso, quando una Chevrolet Bolt ha urtato e fatto cadere un motociclista che la stava superando a destra, su una strada a tre corsie di marcia.

I fatti riportano che l’automobile, sulla quale era seduto un “conducente d’emergenza” che non teneva le mani sul volante, ha iniziato una manovra per passare dalla corsia centrale a quella più a sinistra. In quel mentre, l’auto che precedeva la Chevrolet automatica ha rallentato, e il processore incaricato di gestire la guida del veicolo ha deciso di abortire la manovra di cambio corsia, frenando a sua volta e rientrando nella corsia centrale. Peccato che nel frattempo un motociclista avesse iniziato il sorpasso a destra. Anzi, vista la velocità ridotta (secondo la General Motors l’auto viaggiava a 12 miglia orarie – meno di 20 km/h – mentre la moto andava a circa 17 miglia orarie), si può parlare di filtering fra le file, manovra consentita in California.

Il motociclista, che se l’è cavata con una spalla dolorante, ha avviato un’azione legale nei confronti della GM, ma contro ogni previsione, si è visto dare torto nel verbale del Dipartimento di Polizia. La motivazione è nel fatto che la sua manovra è stata giudicata pericolosa, perché avrebbe iniziato il sorpasso in un momento in cui ancora non c’erano le condizioni di sicurezza necessarie.»


Las Vegas fatale: prima uscita del bus senza pilota e primo incidente

«Il mini van da 11 posti della francese Keolis è rimasto per sole due ore senza tamponamenti, poi l’irruenza dell’uomo ha prevalso

L’incidente che, dopo sole due ore dalla messa su strada, ha coinvolto il mini bus senza conducente da 11 posti della francese Keolis è l’ennesima prova di quanto la tecnologia possa migliorare la qualità dei trasporti. Il mezzo, realizzato in collaborazione con il gigante assicurativo americano AAA – American Automobile Association, ha una velocità massima di circa 45 km orari ma in certi punti si limita ai 25 km/h, per rispettare le norme e assicurare il corretto via vai di motocicli e pedoni. L’area di riferimento è quella di Las Vegas, dove già da tempo il van è stato testato dai due promotori assieme alla compagnia tech Nayva, senza riscontrare mai alcun problema. Dunque qual è stata la dinamica dell’incidente?»


Auto senza pilota di Uber sfreccia col rosso

«Un auto senza pilota di Uber è sfrecciata con il rosso a San Francisco, rischiando di causare una vera e propria tragedia. Tuttavia la colpa, per assurdo, sembra essere del pilota. Al momento le macchine a guida autonoma circolano con una persona a bordo pronta a prendere il comando per evitare, in teoria, incidenti e infrazioni. E’ la stessa Uber a spiegare che la tecnologia non permette ancora di affidarsi completamente al sistema di controllo automatico ed è necessario un pilota in carne e ossa che intervenga in caso di pericolo. »

Pubblicato in: Amministrazione, Scienza & Tecnica, Storia e Letteratura

1517. Cinquecentesimo anniversario di Fra Luca Pacioli.

Giuseppe Sandro Mela.

2017-12-16.

2017-10-25__Fra Luca Pacioli

È molto difficile misconoscere l’enorme retaggio religioso, umano e culturale che il medioevo ha lasciato in eredità all’umanità intera.

C’è voluta tutta la pervicace volontà dei così detti ‘illuministi‘ per definire quell’epoca come ‘secoli bui‘: dovevano demonizzare il passato per poter giustificare la loro presenza. Ma le menzogne non durano nel tempo. Sarebbe sufficiente andare a visitare le cattedrali gotiche: sono lì da ottocento anni.

Sarebbe davvero lungo enumerare tutte le eredità medievali, ma in questa sede una dovrebbe essere ricordata in modo particolare: la messa a punto della logica. Basata sulla geniale intuizione di Aristotele, essa è stata oggetto di profondi ripensamenti da parte delle maggiori menti dei diversi tempi. Da Boezio ad Alcuino, fino ad Abelardo con il celeberrimo Sic et non. Per non menzionare poi Alessandro di Hales e Tommaso d’Aquino.

Senza lo strumento logico sarebbe stato impossibile porre le basi della teologia e, come sequenziale evento, di ogni tipo di scienza. La matematica lasciò la veste di strumento di calcolo per diventare il regno assoluto della dimostrazione robusta. Le scienze empiriche furono fondate sull’assioma ‘adaequatio rei et intellectus‘ ideato dalla scolastica.

*

Concetti che a noi contemporanei del ventunesimo secolo sembrerebbero essere auto evidenti non lo erano affatto.

In questo contesto culturale, che non dimentichiamolo ci ha donato l’architettura gotica e scuole artistiche culminate con Raffaello, Bramante, Leonardo e Michelangelo, Fra Luca Pacioli assume una sua ben precisa figura di spicco.

«Fra Luca Bartolomeo de Pacioli o anche Paciolo (Borgo Sansepolcro, 1445 circa – Roma, 19 giugno 1517) è stato un religioso, matematico ed economista italiano, autore della Summa de Arithmetica, Geometria, Proportioni e Proportionalità e della Divina Proportione. Egli è riconosciuto come il fondatore della ragioneria.

Studiò e avviò la sua formazione a Sansepolcro, città natale, completandola poi a Venezia. Entrò nell’Ordine francescano nel 1470, probabilmente nel convento di Sansepolcro. Fu insegnante di matematica a Perugia, Firenze, Venezia, Milano, Pisa, Bologna e Roma e viaggiò molto. Nel 1497 accettò l’invito di Ludovico il Moro a lavorare a Milano, dove collaborò con Leonardo da Vinci.

Nel 1499 abbandonò Milano insieme a Leonardo da Vinci. Andò prima a Mantova poi a Venezia. Per Isabella d’Este scrisse il trattato De ludo scachorum, prezioso manoscritto sul gioco degli scacchi, introvabile per 500 anni e riconosciuto dal bibliofilo Duilio Contin tra i libri della Fondazione Coronini Cronberg di Gorizia, ospitati dalla Biblioteca statale Isontina, nel dicembre del 2006. ….

Nel 1494 pubblicò a Venezia una vera e propria enciclopedia matematica, dal titolo Summa de arithmetica, geometria, proportioni e proportionalità (stampata e pubblicata con Paganino Paganini), scritta in volgare, come egli stesso dichiara (in realtà utilizza un miscuglio di termini latini, italiani e greci), contenente un trattato generale di aritmetica e di algebra, elementi di aritmetica utilizzata dai mercanti (con riferimento alle monete, pesi e misure utilizzate nei diversi stati italiani). Uno dei capitoli della Summa è intitolato Tractatus de computis et scripturis; in esso viene presentato in modo più strutturato il concetto di partita doppia, già noto e divulgato nell’ambiente mercantile, (e quindi: “Dare” e “Avere”, bilancio, inventario) che poi si diffuse per tutta Europa col nome di “metodo veneziano”, perché usato dai mercanti di Venezia.» [Fonte]

*

Dopo l’azzeramento economico dell’alto medioevo, si iniziò il lungo cammino di una ripresa economica integrata, ove le realtà diventavano ogni giorno più complesse. Le realtà politiche ed amministrative del medioevo centrale erano davvero rudimentali, ma tutto si edifica nel tempo e facendo tesoro degli errori fatti.

Un primo e fondamentale motore furono le abbazie. Queste si dotarono ben presto di un sistema economico differenziato e coordinato, che già da solo aveva bisogno di una corretta tenuta dei conti. Ma il momento critico si determinò quando dall’abbazia madre furono fondate abbazie figlie ad essa collegate anche dal punto di vista economico. Per dare un solo esempio, Cluny raggiunse al suo apice quasi cinquantamila sedi distaccate ovvero funzionalmente dipendenti. Fare quello che oggi chiameremmo il bilancio consolidato era impresa fuori dall’allora umana possibilità.

Poi venne lo sviluppo economico e mercantile e, di conserva, le prime banche nel senso moderno del termine.

Sicuramente nelle repubbliche marinare italiane si svilupparono molteplici sistemi per cercare di tenere una contabilità ragionevolmente chiara e leggibile. Il trattato del Bongiorno, Il Bilancio di uno Stato Medievale, li tratteggia in modo vivace e dettagliato.

«The oldest record of a complete double-entry system is the Messari (Italian: Treasurer’s) accounts of the Republic of Genoa in 1340. The Messari accounts contain debits and credits journalised in a bilateral form, and include balances carried forward from the preceding year, and therefore enjoy general recognition as a double-entry system. ….

The earliest extant accounting records that follow the modern double-entry system in Europe come from Amatino Manucci, a Florentine merchant at the end of the 13th century. Manucci was employed by the Farolfi firm and the firm’s ledger of 1299-1300 evidences full double-entry bookkeeping. Giovannino Farolfi & Company, a firm of Florentine merchants headquartered in Nîmes, acted as moneylenders to the Archbishop of Arles, their most important customer suggest that Giovanni di Bicci de’ Medici introduced this method for the Medici bank in the 14th century.» [Fonte]

*

Siamo però debitori a Fra Pacioli di aver compilato il primo trattato organico e consistente di quella che in futuro sarebbe stata chiamata la partita doppia, che gli amici anglosassoni denominato come double-entry bookkeeping system. Non solo: oltre a riportare la metodologia, Fra Luca Pacioli ne delineò anche il preciso inquadramento teorico.

*

Non sarebbe azzardato sostenere che il lavoro di Pacioli abbia costituito una pietra miliare nello sviluppo economico e finanziario dell’Occidente di allora, senza il quale noi oggi non saremmo ciò che siamo.

Onore quindi al merito, e perpetuo ricordo dei nostri grandi pensatori.

Bbc. 2017-10-22. Is this the most influential work in the history of capitalism?

In 1495 or thereabouts, Leonardo da Vinci himself, the genius’s genius, noted down a list of things to do in one of his famous notebooks.

*

These to-do lists, written in mirror-writing and interspersed with sketches, are magnificent.

“Find a master of hydraulics and get him to tell you how to repair a lock, canal and mill in the Lombard manner.” “Draw Milan.” “Learn multiplication from the root from Maestro Luca.”

Leonardo was a big fan of Maestro Luca, better known today as Luca Pacioli.

Pacioli was, appropriately enough, a Renaissance Man: – educated for a life in commerce, but also a conjuror, a chess master, a lover of puzzles, a Franciscan Friar, and a professor of mathematics.

Today he is celebrated as the most famous accountant who ever lived.

Pacioli is often called the father of double-entry bookkeeping, but he didn’t invent it.

The double-entry system – known in its day as “bookkeeping alla Veneziana,” or “in the Venetian style” – was being used two centuries earlier, around 1300.

The Venetians had abandoned as impractical the Roman system of writing numbers, and were instead embracing Arabic numerals.

They may have also taken the idea of double-entry book keeping from the Islamic world, or even from India, where there are tantalising hints that double-entry bookkeeping techniques date back thousands of years.

Or it may have been a local Venetian invention, repurposing the new Arabic mathematics for commercial ends.

Intricate transactions

Before the Venetian style caught on, accounts were rather basic. Early medieval merchants were little more than travelling salesmen. They had no need to keep accounts – they could simply check whether their purse was full or empty.

But as the commercial enterprises of the Italian city states grew larger, and became more dependent on financial instruments such as loans and currency trades, the need for a more careful reckoning became painfully clear.

We have a remarkable record of the business affairs of Francesco di Marco Datini, a merchant from Prato, near Florence, who kept accounts for nearly half a century, from 1366 to 1410.

They begin as little more than a financial diary, but as his business grew more complex, he needed something more sophisticated.

Late in 1394, Datini orders wool from Mallorca.

Six months later the sheep are shorn. Several months after that, 29 sacks of wool arrive in Pisa, via Barcelona. The wool is coiled into 39 bales. Of these, 21 go to a customer in Florence and 18 go to Datini’s warehouse, arriving in 1396, over a year after the initial order. They are then processed by more than 100 separate subcontractors.

Eventually, six long cloths go back to Mallorca via Venice, but don’t sell, so are hawked in Valencia and North Africa instead. The last cloth is sold in 1398, nearly four years after Datini’s original order.

Fortunately, he had been using bookkeeping alla Veneziana for more than a decade, so was able to keep track of this extraordinarily intricate web of transactions.

Enormous influence

So what, a century later, did the much lauded Luca Pacioli add to the discipline of bookkeeping? Quite simply, in 1494, he wrote the book.

“Summa de Arithmetica, Geometria, Proportioni et Proportionalita” was an enormous survey of everything that was known about mathematics – 615 large and densely typeset pages.

Amidst this colossal textbook, Pacioli included 27 pages that are regarded by many as the most influential work in the history of capitalism. It was the first description of double-entry bookkeeping to be set out clearly, in detail and with plenty of examples.

Pacioli’s book was sped on its way by a new technology: half a century after Gutenberg developed the movable type printing press, Venice was a centre of the printing industry.

Symmetry and balance

His book enjoyed a long print run of 2,000 copies, and was widely translated, copied, and plagiarised across Europe.

Double-entry bookkeeping was slow to catch on, perhaps because it was technically demanding and unnecessary for simple businesses. But after Pacioli it was always regarded as the pinnacle of the art.

As the industrial revolution unfolded, the ideas that Pacioli had set out came to be seen as fundamental to business life. The system used across the world today is essentially the one that Pacioli described.

Pacioli’s system has two key elements.

First, he describes a method for taking an inventory, and then keeping on top of day-to-day transactions using two books – a rough memorandum and a tidier, more organised journal. Then he uses a third book – the ledger – as the foundation of the system, the double-entries themselves.

Every transaction was recorded twice in the ledger. If you sell cloth for a ducat, you must account for both the cloth and the ducat.

The double-entry system helps to catch errors, because every entry should be balanced by a counterpart, a divine-like symmetry which appealed to a Renaissance Man.

Practical tool

It was during the industrial revolution that double-entry bookkeeping became seen not just as an exercise for mathematical perfectionists, but as a tool to guide practical business decisions.

One of the first to see this was Josiah Wedgwood, the pottery entrepreneur. At first, Wedgwood, flush with success and fat margins, didn’t bother with detailed accounts.

But in 1772, Europe faced a severe recession and demand for Wedgwood’s ornate crockery collapsed. His warehouses began to fill with unsold stock and workers stood idle.

Wedgwood turned to double-entry bookkeeping to understand where in his business the profits were, and how to expand them.

He realised how much each piece of work was costing him – a deceptively simple-sounding question – and calculated that he should actually expand production and cut prices to boost business.

Others followed, and the discipline of “management accounting” was born – an ever-growing system of metrics and benchmarks and targets, that has led us inexorably to the modern world.

But in that modern world, accounting does have another role.

It’s about ensuring that shareholders in a business receive a fair share of corporate profits – when only the accountants can say what those profits really are.

Here the track record is not encouraging.

A string of 21st century scandals – Enron, Worldcom, Parmalat, and the financial crisis of 2008 – have shown us that audited accounts do not completely protect investors.

A business may, through fraud or mismanagement, be on the verge of collapse. Yet we cannot guarantee that the accounts will warn us of this.

Complacency

Accounting fraud is not a new game. The first companies to require major capital investment were the British railways of the 1830s and 1840s, which needed vast upfront investment before they could earn anything from customers.

Investors poured in, and when railway magnates could not pay the dividends that the investors expected, they simply faked their accounts. The entire railway bubble had collapsed in ignominy by 1850.

Perhaps the railway investors should have read up on their Geoffrey Chaucer, writing around the same time as Francesco Datini, the merchant of Prato.

In Chaucer’s Shipman’s Tale, a rich merchant is too tied up with his accounts to notice his wife being wooed by a clergyman.

Nor do those accounts rescue him from an audacious con.

The clergyman borrows the merchant’s money, gives it to the merchant’s wife – buying his way into her bed with her own husband’s cash – and then tells the merchant he’s repaid the debt, and to ask his wife where the money is.

Accountancy is a powerful financial technology – but it does not protect us from outright fraud, and it may well lure us into complacency. As the neglected wife tells her rich husband, his nose buried in his accounts: “the devil take all such reckonings!”

Pubblicato in: Cina, Economia e Produzione Industriale, Istruzione e Ricerca, Scienza & Tecnica

Cina. Huawei commercializza con Deutsche Telekom il primo device 5Gnr.

Giuseppe Sandro Mela.

2017-09-22.

Mela con il Coltello tra i Denti. - Copia

Cercheremo di semplificare al massimo un problema complesso, anche a costo di essere riduttivi: il nostro obiettivo è quello di farci capire da parte di un pubblico utente e non interessato al lato tecnico, ma non per questo sprovveduto.

*

È comune esperienza che le comunicazioni senza filo siano comode ed anche più economiche perché non necessitano della messa in opera di cavi: quello che spesso è riferito come l’ultimo miglio.

Per ottenere questo risultato sono necessarie due componenti.

La prima componente è una rete di emittenti, le colonnine nel caso dei telefoni cellulari, regolarmente collocate in modo tale da coprire tutto il territorio di interesse.

La seconda componente è costituita dai terminali mobili. Siano essi cellulari, siano essi calcolatori, devono in ogni caso essere collegabili alle colonnine.

In altri termini, gli strumenti della rete fissa e quelli della rete mobile devono essere compatibili e formano un tutto unico.

*

All’utente finale ciò che realmente importa sono alcuni fattori nodali:

– un’ottima copertura del territorio;

– la buona affidabilità del funzionamento del sistema;

– la velocità di trasmissione;

– la economicità della soluzione adottata.

*

La Huawei è riuscita a concepire, progettare e costruire una rete che può colloquiare stabilmente ad una velocità che supera ampiamente quella delle soluzioni attualmente in uso.

«In collaboration with Huawei, Deutsche Telekom (DT) announced Europe’s first 5G connection based on the latest 3GPP standard»

*

«On DT’s commercial network in central Berlin, the network has gone live with a 5G connection at over two gigabits per second and a low latency of three milliseconds over a 3.7 gigahertz spectrum link»

*

«Powered by Huawei user equipment using 3GPP specifications for 5G New Radio (NR), the deployment on commercial sites is the first in Europe and marks an important advancement in the global development of 5G.»

*

«5G is essentially a revolutionary paradigm shift in wireless networking to support the throughput, latency and scalability requirements of future use cases such as extreme bandwidth augmented reality applications and connectivity management for Billions of M2M (Machine to Machine) devices»

*

«With large scale commercial deployments …. we estimate that 5G networks will generate nearly $250 Billion in annual service»

* * * * * * * *

Sono anni che in Occidente Silicon Valley e succedanei annunciano mirabolanti previsioni di future linee di trasmissione ad altissima velocità. Il tempo futuro è quello costantemente ricorrente nei loro annunci. “Faremo” è il loro motto: “ho fatto” suona di conservatore.

“Dateci sempre più fondi, e noi faremo.”

Per l’intanto, fiumi di denaro pubblico sono stati profusi sulla Silicon Valley, che aveva promesso di risolvere il problema entro, più o meno, il 2025.

Huawei ha adesso spiazzato tutti.

Senza annunci e clamori, ha sviluppato la teoria fisica che sottende le trasmissioni ultraveloci, ha trasferito i risultati della ricerca pura a quelle tecnologica, ed alla fine è uscita con un prodotto commercializzabile a costi contenuti. Questo ultimo è il punto cardine: produrre innovazione a prezzi accessibili alla grande utenza.

* * * * * * * *

A nessuno sarà però sfuggito il vero risultato ottenuti dai cinesi della Huawei.

Essendo il loro sistema disponibile, la rete mondiale non tarderà ad adeguarvisi: la tecnologia cinese andrà a sostituire quella americana in un settore strategico sia per la vita civile sia per quella militare.

In altri termini: imponendosi come standard, la Huawei diventerà molto difficilmente scalzabile dal mercato.

Questo è uno smacco evidente per l’America, e dovrebbe far pensare a fondo su quanto sia efficiente il sistema universitario occidentale: questo aveva un predominio assoluto e nel breve volgere di meno di trenta anni lo ha perso.

Né ci consola il fatto che le università americane siano diventate “santuari

«A sanctuary campus is any college or university in the United States that adopts policies to protect members of the campus community who are undocumented immigrants. The term is modeled after “sanctuary city”, a status that has been adopted by over 30 municipalities. ….

In November 2016, students around the country staged demonstrations, walk-outs, and sit-ins in an effort to push their schools to declare themselves a “sanctuary campus” from President-elect Donald Trump’s planned immigration policy of mass deportations. The Stanford, Rutgers, and St. Mary’s protests on November 15, 2016 were among the first.»

*

L’idea di rimpiazzare un ricercatore con un immigrato illetterato è davvero pellegrina. Per non parlare poi delle ‘quote rosa‘: le università americane sono adesso quasi tutte al femminile e non producono più nulla, con grande soddisfazione dei cinesi.


Huawei. 2017-09-14. Deutsche Telekom and Huawei Go Live with Europe’s First 5G Connection

In collaboration with Huawei, Deutsche Telekom (DT) announced Europe’s first 5G connection based on the latest 3GPP standard.

Deutsche Telekom’s network in Germany is 5G Ready:

On DT’s commercial network in central Berlin, the network has gone live with a 5G connection at over two gigabits per second and a low latency of three milliseconds over a 3.7 gigahertz spectrum link. Powered by Huawei user equipment using 3GPP specifications for 5G New Radio (NR), the deployment on commercial sites is the first in Europe and marks an important advancement in the global development of 5G.

“5G new radio will be critical for meeting our customers’ ever-increasing connectivity requirements that are steadily growing with more and more network connections,” said Claudia Nemat, Deutsche Telekom Board member for Technology and Innovation. “Our achievement demonstrates the feasibility of our plans to deliver a superior, new customer experience.”

Taihua Deng, President Wireless Network, Huawei, said, “As long time partners, both Deutsche Telekom Group and Huawei have joined hands to successfully test 5G NR equipment in field environments based on the latest 3GPP R15 standards. These achievements highlight the capabilities of the 5G NR equipment to meet operators’ requirements for addressing new business opportunities for end users. Huawei is confident that the partnership with Deutsche Telekom can fully prepare the commercial launch of 5GNR services in Europe by 2020 thanks to 3GPP standardization efforts.”

The implementation in a live real-world setting in central Berlin using Huawei equipment and software is based on pre-standard 5G that closely tracks the 3GPP global standard for so-called ‘Non-Standalone New Radio’. With the Non-Standalone 5G NR mode for enhanced Mobile Broadband (eMBB) use-case, it is meant that the connection is anchored in LTE while 5G NR carriers are used to boost data-rates and reduce latency. Therefore, 5G new radio will be deployed with the evolution of 4G LTE as the baseline for wide-area broadband coverage. The specifications enabling that system will be complete by December 2017 as part of the first drop of 3GPP Release 15.

5G New Radio has characteristics that make it ideal to meet the sub 6 GHz mid-band needs for 5G applications that will require mobility support, wide-area coverage, as well as multi-gigabit throughput speeds and millisecond low latency.

“With this real-world achievement, Deutsche Telekom is making its first important step towards a 5G network launch,” said Bruno Jacobfeuerborn, CTO, Deutsche Telekom. “When the standard is defined, we will trial it in 2018 to prepare the ground for a wider deployment of commercial sites and the offering of devices for the mass market as they become available.”

5G Experience Day

The DT and Huawei joint implementation was conducted as part of Deutsche Telekom’s 5G:haus innovation partnership to advance 5G development to make the standard a global success. Both companies look forward to demonstrating this technical breakthrough and the innovative applications it enables during the 5G Experience Day in Berlin on October 12, 2017.


Cision. 2016-03-01. 5G Wireless Market Worth $250 Billion by 2025: $6 Billion Spend Forecast on R&D for 2015-2020

The 2016 research report on 5G wireless market says while LTE and LTE-Advanced deployments are still underway, mobile operators and vendors have already embarked on R&D initiatives to develop so-called “5G” technology, with a vision of commercialization by 2020. 5G is essentially a revolutionary paradigm shift in wireless networking to support the throughput, latency and scalability requirements of future use cases such as extreme bandwidth augmented reality applications and connectivity management for Billions of M2M (Machine to Machine) devices.

Complete report on 5G Wireless Market analysis 103 companies and provides data 59 data tables and figures is available at http://www.reportsnreports.com/reports/498612-the-5g-wireless-ecosystem-2016-2030-technologies-applications-verticals-strategies-forecasts.html

Although 5G is yet to be standardized, vendors are aggressively investing in 5G development efforts with a principal focus on new air interface transmission schemes, higher frequency bands and advanced antenna technologies such as Massive MIMO and beamforming. revenue With large scale commercial deployments expected to begin in 2020, we estimate that 5G networks will generate nearly $250 Billion in annual service by 2025. Driven by regional, national government, mobile operator and vendor initiatives, we expect that over $6 Billion will be spent on 5G R&D and trial investments between 2015 and 2020. 5G networks are expected to utilize a variety of spectrum bands for diverse applications, ranging from established sub-6 GHz cellular bands to millimeter wave frequencies.

The “5G Wireless Ecosystem: 2016 – 2030 – Technologies, Applications, Verticals, Strategies & Forecasts” report presents an in-depth assessment of the emerging 5G ecosystem including key market drivers, challenges, enabling technologies, use cases, vertical market applications, spectrum assessment, mobile operator deployment commitments, case studies, standardization, research initiatives and vendor strategies. The report also presents forecasts for 5G investments and operator services.

The report comes with an associated Excel datasheet suite covering quantitative data from all numeric forecasts presented in the report. Order a copy of this report at http://www.reportsnreports.com/purchase.aspx?name=498612.

List of Companies Mentioned in this 5G Wireless Market Report are 3GPP (Third Generation Partnership Project), 5G Americas, 5G Forum, South Korea, 5G Lab (TU Dresden), 5G PPP (5G Infrastructure Public Private Partnership), 5GIC (5G Innovation Center, University of Surrey), 5GMF (Fifth Generation Mobile Communications Promotion Forum, Japan), 5GRUS, Alcatel-Lucent, Alpental Technologies, América Móvil, ARIB (Association of Radio Industries and Businesses), Ascenta, AT&T Mobility, Athena Wireless Communications, ATIS (Alliance for Telecommunications Industry Solutions), AVC Networks Company, CableLabs, China Mobile, Cisco Systems, Cohere Technologies, DT (Deutsche Telekom), du (Emirates Integrated Telecommunications Company), Ericsson, Etisalat, ETRI (Electronics and Telecommunications Research), ETSI (European Telecommunications Standards Institute), Facebook, Fraunhofer FOKUS, Fraunhofer HHI, Fraunhofer-Gesellschaft and more.

Market forecasts are provided for each of the following submarkets and their subcategories.

 

Pubblicato in: Cina, Economia e Produzione Industriale, Russia, Scienza & Tecnica

Craic. È nato il concorrente sino-russo a Boeing ed Airbus.

Giuseppe Sandro Mela.

2017-06-03.

2017-05-24__Craic__001

La notizia era nell’aria, ed in parte era stata preannunciata.

Cina. C919 ed An-225. Si sviluppa l’industria aeronautica cinese.

*

Russia e Cina hanno ambedue una consolidata esperienza nella progettazione e costruzione di aeromobili, soprattutto a scopi militari.

Negli ultimi decenni hanno sopperito alle esigenze del traffico aereo domestico ed internazionale acquisendo vettori sia dalla Boeing sia dalla Aerbus, e si potrebbe stimare che il rinnovo e l’ampliamento della flotta passeggeri e commerciale dovrebbe iniziare tra sette anni, circa.

Di questi giorni la notizia della fondazione della

«China-Russia Commercial Aircraft International Corporation Limited (CRAIC), a joint venture between Commercial Aircraft Corporation of China (COMAC) and Russia’s United Aircraft Corp (UAC), in Shanghai, China May 22, 2017».

*

«COMAC and UAC first announced the program in 2014. In November, they said they had set up a joint venture in Shanghai and unveiled a mock-up of the basic version of the jet that would have a range of up to 12,000 kilometers (7,500 miles) and seat 280 passengers»

Sembrerebbe essere del tutto ragionevole che i vettori che saranno prodotti dalla Craic sostituiranno quelli americani ed europei attualmente in uso.

Non solo.

«UAC and COMAC hold equal shares in their venture, whose jet they said would be 10-15 percent cheaper to run than planes from Boeing and Airbus»

Basso costo di esercizio, quindi, unitamente al prospettato verosimile basso, molto basso, costo di produzione: due fattori che potrebbero far diventare la Craic un temibile concorrente sia per Boeing sia per Airbus.

* * * * * * *

Ricordiamo un episodio significativo, che sia russi sia cinesi si ricordano più che bene.

«Il prototipo dell’Il-96 volò la prima volta il 28 settembre 1988 con motori turbofan sovietici. Dall’inizio di produzione di serie sono stati costruiti 24 esemplari del Ilyushin Il-96. 13 esemplari del Ilyushin Il-96 sono attualmente in servizio nelle compagnie aeree russe (Aeroflot, Aerostars Airlines, Rossija Airlines), e 3 sono in servizio all’estero nella Cubana de Aviación.

Il 14 luglio 1993 il primo Ilyushin Il-96 dell’Aeroflot ha effettuato il volo di linea internazionale sulla rotta Mosca-SVO – New York-JFK.

L’aereo è stato riprogettato e nell’aprile 1993 decollò il primo e l’unico esemplare costruito di Ilyushin Il-96 con più avanzate turboventole statunitensi Pratt & Whitney PW2337 (lo stesso tipo di turboventole montati sugli aerei da trasporto tattico McDonnell Douglas C-17 Globemaster III) ed una nuova avionica computerizzata sotto la sigla Il-96M, ma questo prototipo non entrò in serie penalizzato dalla decisione del Congresso degli Stati Uniti d’America di non permettere la collaborazione della Pratt & Whitney con la Federazione Russa.

Il 16 maggio 1997 ha effettuato il primo volo l’Ilyushin Il-96-400T con più moderni motori russi Aviadvigatel PS-90. Dal 2009 questa versione entrò nella flotta cargo della moscovita Atlant-Soyuz Airlines e dopo nella flotta della russa Air Company Polet di Voronež.» [Fonte]

*

Se è del tutto ragionevole che il Congresso degli Stati Uniti d’America di non abbia permesso la collaborazione della Pratt & Whitney con la Federazione Russa, specie poi per i motori PW2337, che avevano anche valenza militare, è altrettanto ragionevole il capire la volontà sino-russa di avere una loro propria produzione indipendente.

Non ci si stupirebbe però più di tanto che in futuro l’America rimpianga di non aver optato per una strategia collaborativa quando la concorrenza della Craig inizierà a far contrarre le vendite dei propri vettori.

Nota.

Alcuni malignassi inveterati hanno commentato sul significato di “craic” in gaelico….


Reuters. 2017-05-23. China, Russia set up wide-body jet firm in new challenge to Boeing, Airbus

China and Russia on Monday completed the formal registration of a joint venture to build a wide-body jet, kick-starting full-scale development of a program aimed at competing with market leaders Boeing Co (BA.N) and Airbus SE (AIR.PA).

State plane makers Commercial Aircraft Corp of China Ltd (COMAC) [CMAFC.UL] and Russia’s United Aircraft Corp (UAC) said at a ceremony in Shanghai the venture would aim to build a “competitive long range wide-body commercial aircraft”.

The announcement comes just weeks after COMAC successfully completed the maiden flight of its C919, China’s first home-grown narrow-body passenger jet.

COMAC President Jin Zhuanglong said the two firms had decided to hold the establishment ceremony after the C919’s flight.

“This program is aimed at fulfilling future market demand,” he told reporters. “Our two countries, our two firms … have created this joint venture to undertake responsibilities such as organization, research, management and implementation.”

The program will have a research center in Moscow and assembly line in Shanghai, he said, adding division of labor was still being discussed.

Guo Bozhi, general manager of COMAC’s wide-body department, said the venture would ask suppliers to bid for the contract to build the engine by year-end.

MAIDEN FLIGHT

COMAC and UAC first announced the program in 2014. In November, they said they had set up a joint venture in Shanghai and unveiled a mock-up of the basic version of the jet that would have a range of up to 12,000 kilometers (7,500 miles) and seat 280 passengers.

UAC President Yuri Slyusar said the firms looked to complete the maiden flight and first delivery during 2025-2028, and aimed to take 10 percent of a market dominated by the Boeing 787 and Airbus A350.

Previously, they targeted a maiden flight in 2022 and delivery in or after 2025.

UAC is also developing a version of Russian wide-body jet Ilyushin IL-96. Slyusar said the two programmes had different requirements, and that UAC would use experience with the IL-96 to aid development of the Chinese-Russian jet.

UAC and COMAC hold equal shares in their venture, whose jet they said would be 10-15 percent cheaper to run than planes from Boeing and Airbus.

Last July, Boeing forecast airlines worldwide would need 9,100 wide-body planes over 20 years through 2035, with a wave of replacement demand around 2021-2028.

Over the past decade, China has plowed billions of dollars into domestic jet development to raise its profile in global aviation and boost high-tech manufacturing.

Pubblicato in: Scienza & Tecnica

GooGoogle. Cloud Tensor Processing Unit. Una strada verso il potere.

Giuseppe Sandro Mela.

2017-05-24.

2017-05-18__Google__001

«The new chip and a cloud-based machine-learning supercomputer will help Google establish itself as an AI-focused hardware maker»

*

«If artificial intelligence is rapidly eating software, then Google may have the biggest appetite around»

*

«The announcement reflects how rapidly artificial intelligence is transforming Google itself, and it is the surest sign yet that the company plans to lead the development of every relevant aspect of software and hardware»

*

«Perhaps most importantly, for those working in machine learning at least, the new processor not only executes at blistering speed, it can also be trained incredibly efficiently»

*

«Called the Cloud Tensor Processing Unit, the chip is named after Google’s open-source TensorFlow machine-learning framework»

*

«To create an algorithm capable of recognizing hot dogs in images, for example, you would feed in thousands of examples of hot-dog images—along with not-hot-dog examples—until it learns to recognize the difference. …. But the calculations required to train a large model are so vastly complex that training might take days or weeks.»

*

«Pichai also announced the creation of machine-learning supercomputers, or Cloud TPU pods, based on clusters of Cloud TPUs wired together with high-speed data connections»

*

«These TPUs deliver a staggering 128 teraflops»

* * * * * * *

Se l’uso nel settore dell’analisi delle immagini richiama alla mente applicazioni biomediche, per esempio lo studio di immagini radiologiche, il settore potrebbe ben spaziare anche al riconoscimento e classificazione di volti e persone, oppure lo studio delle variazioni che hanno preso luogo in immagini di ricognizione satellitare.

*

Mrs Fei Fei Li, chief scientist at Google Cloud and the director of Stanford’s AI Lab, è come dice il nome cinese, nata a Pechino nel 1976. È coniugata con un italiano, Mr Silvio Savarese. Uscita dalla Princeton University con la laurea in fisica, ha conseguito il PhD in ingegneria elettronica presso il California Intitute of Technology. Ha un curriculum di tutto rispetto.

Un unico neo, ma tutto da valutare.

Dal 1999 al 2003 ha ottenuto un Paul and Daisy Soros Fellowship for New Americans.


MIT Technology Review. 2017-05-17. Google Reveals a Powerful New AI Chip and Supercomputer

The new chip and a cloud-based machine-learning supercomputer will help Google establish itself as an AI-focused hardware maker.

*

If artificial intelligence is rapidly eating software, then Google may have the biggest appetite around.

The announcement reflects how rapidly artificial intelligence is transforming Google itself, and it is the surest sign yet that the company plans to lead the development of every relevant aspect of software and hardware.

Perhaps most importantly, for those working in machine learning at least, the new processor not only executes at blistering speed, it can also be trained incredibly efficiently. Called the Cloud Tensor Processing Unit, the chip is named after Google’s open-source TensorFlow machine-learning framework.

Training is a fundamental part of machine learning. To create an algorithm capable of recognizing hot dogs in images, for example, you would feed in thousands of examples of hot-dog images—along with not-hot-dog examples—until it learns to recognize the difference. But the calculations required to train a large model are so vastly complex that training might take days or weeks.

Pichai also announced the creation of machine-learning supercomputers, or Cloud TPU pods, based on clusters of Cloud TPUs wired together with high-speed data connections. And he said Google was creating the TensorFlow Research Cloud, consisting of thousands of TPUs accessible over the Internet.

 “We are building what we think of as AI-first data centers,” Pichai said during his presentation. “Cloud TPUs are optimized for both training and inference. This lays the foundation for significant progress [in AI].”

Google will make 1,000 Cloud TPU systems available to artificial intelligence researchers willing to openly share details of their work.

Pichai also announced a number of AI research initiatives during his speech. These include an effort to develop algorithms capable of learning how to do the time-consuming work involved with fine-tuning other machine-learning algorithms. And he said Google was developing AI tools for medical image analysis, genomic analysis, and molecule discovery.

Speaking ahead of the announcements, Jeff Dean, a senior fellow at Google, said this offering might help advance AI. “Many top researchers don’t have access to as much computer power as they would like,” he noted.

Google’s move into AI-focused hardware and cloud services is driven, in part, by efforts to speed up its own operations. Google itself now uses TensorFlow to power search, speech recognition, translation, and image processing. It was also used in the Go-playing program, AlphaGo, developed by another Alphabet subsidiary, DeepMind.

But strategically, Google could help prevent another hardware company from becoming too dominant in the machine-learning space. Nvidia, a company that makes the graphics processing chips that have traditionally been used for deep learning, is becoming particularly prominent with its various products (see “Nvidia CEO: Software Is Eating the World, but AI is Going to Eat Software”).

To provide some measure of the performance acceleration offered by its cloud TPUs, Google says its own translation algorithms could be trained far more quickly using the new hardware than existing hardware. What would require a full day of training on 32 of the best GPUs can be done in an afternoon using one-eighth of one of its TPU Pods.

“These TPUs deliver a staggering 128 teraflops, and are built for just the kind of number crunching that drives machine learning today,” Fei-Fei Li, chief scientist at Google Cloud and the director of Stanford’s AI Lab, said prior to Pichai’s announcement.

A teraflop refers to a trillion “floating point” operations per second, a measure of computer performance obtained by crunching through mathematical calculations. By contrast, the iPhone 6 is capable of about 100 gigaflops, or one billion floating point operations per second.

Google says it will still be possible for researchers to design algorithms using other hardware, before porting it over to the TensorFlow Research Cloud. “This is what democratizing machine learning is all about—empowering developers by protecting freedom of design,” Li added.

A growing number of researchers have adopted TensorFlow since Google released the software in 2015. Google now boasts that it is the most widely used deep-learning framework in the world.

Pubblicato in: Criminalità Organizzata, Scienza & Tecnica

WannaCry ed il suo sodale estorsore.

Giuseppe Sandro Mela.

2017-05-17.

2017-05-17__WannaCry__001

«Should the Government Keep Stockpiling Software Bugs?»

*

«WannaCry, chiamato anche WanaCrypt0r 2.0, è un virus informatico responsabile di un’epidemia su larga scala avvenuta nel maggio 2017. Il virus, di tipologia ransomware, cripta i file presenti sul computer e chiede un riscatto di alcune centinaia di dollari per decriptarli.

Il 12 maggio 2017 il malware ha infettato i sistemi informatici di numerose aziende e organizzazioni in tutto il mondo, tra cui Portugal Telecom, Deutsche Bahn, FedEx, Telefónica, Tuenti, Renault, il National Health Service, il Ministero dell’interno russo, l’Università degli Studi di Milano-Bicocca.

Al 16 maggio sono stati colpiti più di duecentomila computer in almeno 99 paesi, rendendolo uno dei maggiori contagi informatici mai avvenuti.

WannaCry sfrutta una vulnerabilità di SMB, tramite un exploit chiamato EternalBlue e sviluppato dalla National Security Agency statunitense per attaccare sistemi informatici basati sul sistema operativo Microsoft Windows. EternalBlue era stato rubato da un gruppo di hacker che si fanno chiamare The Shadow Brokers e pubblicato in rete il 14 aprile 2017.

Il malware viene diffuso attraverso finte email e, dopo che viene installato su un computer, comincia a infettare altri sistemi presenti sulla stessa rete e quelli vulnerabili esposti a internet, che vengono infettati senza alcun intervento dell’utente. Quando infetta un computer, WannaCry cripta i file bloccandone l’accesso e aggiunge l’estensione .WCRY; impedisce inoltre il riavvio del sistema» [Fonte]


MIT Technology Review. 2017-05-17. WannaCry Has a More Lucrative Cousin That Mines Cryptocurrency for Its Masters

The same exploits that enabled WannaCry to spread globally have been in use in another malware attack since April, making far more money in the process.

*

The same exploits that allowed the WannaCry ransomware attack to spread so quickly have been used to set up an illicit cryptocurrency mining scheme. And it sure was worth it to the hackers.

Late last week, the world was hit by ransomware that locked up computers in hospitals, universities, and private firms, demanding Bitcoin in exchange for files being decrypted. It was able to spread so fast thanks to a Windows flaw weaponized by the U.S. National Security Agency known as EternalBlue, and a back door called DoublePulsar. Sadly, the tools were inadvertently lost and leaked because the NSA considered it wise to stockpile them for future use.

WannaCry was halted by swift work on behalf of dedicated security researchers. But during investigations into the attack, security firm Proofpoint has found that another piece of malware, called Adylkuzz, makes use of the same exploits to spread itself around the word’s insecure Windows devices.

This particular hack has gone unnoticed since April. That’s because unlike WannaCry, which demands attention to get money directly from a user, Adylkuzz simply installs a piece of software and then borrows a PC’s resources. It then sets about mining the little-known cryptocurrency called Monero using your computer. It does so in the background, with users potentially unaware of its presence—though perhaps a little frustrated because their computers are slower than usual.

It makes sense that EternalBlue and DoublePulsar are being used in this way, said Nolen Scaife, a security researcher at the University of Florida. The combination of exploits allows attackers to load just about any type of malware they want onto compromised machines. “It’s important to stress that it could be anything—it could be keyloggers, for example,” he told MIT Technology Review. “But what we’re seeing is that attackers are using this wherever this makes the most money.”

Interestingly, though, it’s the attack that has until now gone unnoticed that has secured the most loot. WannaCry’s attempt to extort cash in return for unlocking encrypted files has only drummed up $80,000 at the time of writing—probably because Bitcoin, the currency WannaCry’s perpetrators are demanding, is hard to use. Meanwhile one estimate suggests that the Adylkuzz attack could have already raised as much as $1 million.

In some sense, Adylkuzz is less problematic than WannaCry. It’s certainly less overtly destructive. But it does raise a more pressing cause for concern: if it’s been running since April, how many other leaked NSA tools have been used to carry out attacks that have so far gone unnoticed? Stay tuned—there may be more to come.

(Read more: Proofpoint, Reuters, “The WannaCry Ransomware Attack Could’ve Been a Lot Worse,” “Security Experts Agree: The NSA Was Hacked,” “Should the Government Keep Stockpiling Software Bugs?”)

Pubblicato in: Scienza & Tecnica

Grattacieli Elicoidali. La frontiera delle nuove strutture.

Giuseppe Sandro Mela.

2017-03-11.

 grattacieli-elicoidali-005-oko-tower-mosca

 Torre Oko in Mosca.


Le immagini delle principali e tumultuose città del mondo inizia a popolarsi di grattacieli che presentano una stranissima forma, quasi fosse candele a torciglione.

Alle volte assumono forme del tutto bizzarre, apparentemente inspiegabili.

Sono i così detti Grattacieli Elicoidali.

banca-centrale-russia-001

Banca Centrale Russa. Mosca.


Sono certamente il frutto del gusto estetico dell’architetto, ma in realtà rispondono a ben precise esigenze: ridurre in modo significativo la pressione esercitata dal vento sulla struttura, pressione utilizzata peraltro come spinta verso l’alto, ossia l’effetto von Karman.

grattacieli-elicoidali-001

Il risultato è sconcertante: il grattacielo può essere costruito con altezza maggiore utilizzando strutture meno pesante: è decisamente più stabile sulle fondamenta antisismiche e resiste anche meglio a grandi escursioni termiche.

 grattacieli-elicoidali-003

  Nota tecnica.

«Una scia vorticosa di von Kármán è una configurazione di scia caratterizzata dal distacco alternato di vortici che si verifica in alcuni corpi tozzi (corpi che presentano un distacco marcato dello strato limite).

Le scie vorticose possono essere osservate solo all’interno di un dato intervallo di numeri di Reynolds (Re). Il campo di variabilità di Re è influenzato da forma e dimensioni del corpo che causa il fenomeno, ovvero della viscosità cinematica del fluido. Il fenomeno prende nome dal fluidodinamico e ingegnere Theodore von Kármán.

In condizioni idonee per il numero di Reynolds si ha la formazione di due schiere di vortici una opposta all’altra. Quest’ultima porta il centro del vortice di una schiera ad essere corrispondente al punto medio tra due vortici della schiera opposta.

Come conseguenza della formazione di un vortice si ha una modificazione della distribuzione delle pressioni attorno al corpo. Conseguentemente, una formazione alternata di vortici genera forze variabili periodicamente e quindi una vibrazione del corpo. Qualora la frequenza di formazione dei vortici si avvicini alla frequenza naturale di vibrazione del corpo si ha il fenomeno della risonanza del medesimo. Esempi di fenomeni di questo tipo: vibrazione dei cavi telefonici; vibrazione più intensa dell’antenna dell’autoradio a date velocità; fluttuazione delle finestre avvolgibili (veneziane) quando il vento le attraversa; vibrazione dei tiranti dei ponti strallati.

In un primo momento si era pensato che il distacco dei vortici avesse provocato il crollo del ponte sul fiume Tacoma, mentre la causa del cedimento è stato un fenomeno aeroelastico noto come flutter.

Questo tipo di fenomeno deve essere preso in considerazione in fase di progettazione di strutture quali periscopi per sottomarini oppure per ciminiere industriali. Un metodo per evitarlo è inserire degli elementi di disturbo del flusso. Se questo è cilindrico, l’impiego di pinne di lunghezza maggiore del diametro consente di evitare la formazione delle scie vorticose. Poiché nel caso di edifici o antenne il vento può avere direzione qualsiasi, si impiegano elementi a profilo elicoidale simili a filetti. Questi vengono montati nella sommità delle strutture, generando un flusso asimmetrico tridimensionale che riduce la formazione alternata di vortici.»

Pubblicato in: Geopolitica Militare, Problemi militari, Scienza & Tecnica

Cina. Il suo primo supercalcolatore interamente made in China.

Giuseppe Sandro Mela.

2017-02-28.

2017-02-07__cina_calcolatore__001

La Cina sta crescendo con impensata ed impensabile velocità anche nel settore delle ricerche di punta. Questa notizia evidenzia come sia un competitore agguerrito, assolutamente indisponibile a metter fiori nelle bocche dei cannoni. Anzi, tutt’altro.

Se è vero che l’articolista del New York Times conclude dicendo che:

«The new supercomputer, like similar machines anywhere in the world, has a variety of uses, and does not by itself represent a direct military challenge. It can be used to model climate change situations, for instance, or to perform analysis of large data sets»,

È altrettanto vero che i cinesi del ‘clima‘ se ne stanno facendo un baffo a torciglione: uno di qua e l’altro di là.

Il Sunway TaihuLight è di impiego militare, al di là delle elucubrazioni fatte in Occidente.

*

«This week, China’s Sunway TaihuLight officially became the fastest supercomputer in the world. The previous champ? Also from China. What used to be an arms race for supercomputing primacy among technological nations has turned into a blowout.»

*

«The Sunway TaihuLight is indeed a monster: theoretical peak performance of 125 petaflops, 10,649,600 cores, and 1.31 petabytes of primary memory. That’s not just “big.” Former Indiana Pacers center Rik Smits is big. This is, like, mountain big. Jupiter big.»

*

«TaihuLight’s abilities are matched only by the ambition that drove its creation. Fifteen years ago, China claimed zero of the top 500 supercomputers in the world. Today, it not only has more than everyone else—including the United States—but its best machine boasts speeds five times faster than the best the US can muster. And, in a first, it achieves those speeds with purely China-made chips.»

 *

«Think of TaihuLight, then, not in terms of power but of significance. It’s loaded with it, not only for what it can do, but how it does it.» [Source]

* * *

«The earlier supercomputer, the Tianhe 2, was powered by Intel’s Xeon processors; after it came online, the United States banned further export of the chips to China, in hopes of limiting the Chinese push into supercomputing.»

*

«The speed of the Chinese technologists, compared to United States and European artificial intelligence developers, is noteworthy.»

*

Due sono i punti critici.

– Questo supercalcolatore usa interamente tecnologia cinese. In altri termini, è in grado di progettare e costruire tutti i componenti necessari, di assemblarli e di scrive un sistema operativo efficiente. È il più potente al mondo. L’embargo ordinato dall’allora Presidente Obama è solo servito ad accelerare i tempi di sinizzazione delle tecnologie.

– I cinesi sono diventati competitori mondiali nel settore dell’intelligenza artificiale.

*

Sarebbe questione di lana caprina discutere se siano meglio gli americani oppure i cinesi.

Il fatto è che i cinesi hanno progredito a sufficienza per produrre armi che utilizzano l’intelligenza artificiale.

Is China Really Building Missiles With Artificial Intelligence?

China To Use High Level of Artificial Intelligence For Missiles

AI cruise control: China wants high-level artificial intelligence for next-gen missiles

China eyes artificial intelligence for new cruise missiles

*

Usare il Sunway TaihuLight per ricerche sul ‘clima‘? Solo una mente perversa e pervertita potrebbe pensare ciò.


The New York Times. 2017-02-05. China’s Intelligent Weaponry Gets Smarter

Robert O. Work, the veteran defense official retained as deputy secretary by President Trump, calls them his “A.I. dudes.” The breezy moniker belies their serious task: The dudes have been a kitchen cabinet of sorts, and have advised Mr. Work as he has sought to reshape warfare by bringing artificial intelligence to the battlefield.

Last spring, he asked, “O.K., you guys are the smartest guys in A.I., right?”

No, the dudes told him, “the smartest guys are at Facebook and Google,” Mr. Work recalled in an interview.

Now, increasingly, they’re also in China. The United States no longer has a strategic monopoly on the technology, which is widely seen as the key factor in the next generation of warfare.

The Pentagon’s plan to bring A.I. to the military is taking shape as Chinese researchers assert themselves in the nascent technology field. And that shift is reflected in surprising commercial advances in artificial intelligence among Chinese companies.

Last year, for example, Microsoft researchers proclaimed that the company had created software capable of matching human skills in understanding speech.

Although they boasted that they had outperformed their United States competitors, a well-known A.I. researcher who leads a Silicon Valley laboratory for the Chinese web services company Baidu gently taunted Microsoft, noting that Baidu had achieved similar accuracy with the Chinese language two years earlier.

That, in a nutshell, is the challenge the United States faces as it embarks on a new military strategy founded on the assumption of its continued superiority in technologies such as robotics and artificial intelligence.

First announced last year by Ashton B. Carter, President Barack Obama’s defense secretary, the “Third Offset” strategy provides a formula for maintaining a military advantage in the face of a renewed rivalry with China and Russia.

Well into the 1960s, the United States held a military advantage based on technological leadership in nuclear weapons. In the 1970s, that perceived lead shifted to smart weapons, based on brand-new Silicon Valley technologies like computer chips. Now, the nation’s leaders plan on retaining that military advantage with a significant commitment to artificial intelligence and robotic weapons.

But the global technology balance of power is shifting. From the 1950s through the 1980s, the United States carefully guarded its advantage. It led the world in computer and material science technology, and it jealously hoarded its leadership with military secrecy and export controls.

In the late 1980s, the emergence of the inexpensive and universally available microchip upended the Pentagon’s ability to control technological progress. Now, rather than trickling down from military and advanced corporate laboratories, today’s new technologies increasingly come from consumer electronics firms. Put simply, the companies that make the fastest computers are the same ones that put things under our Christmas trees.

As consumer electronics manufacturing has moved to Asia, both Chinese companies and the nation’s government laboratories are making major investments in artificial intelligence.

The advance of the Chinese was underscored last month when Qi Lu, a veteran Microsoft artificial intelligence specialist, left the company to become chief operating officer at Baidu, where he will oversee the company’s ambitious plan to become a global leader in A.I.

And last year, Tencent, developer of the mobile app WeChat, a Facebook competitor, created an artificial intelligence research laboratory and began investing in United States-based A.I. companies.

Rapid Chinese progress has touched off a debate in the United States between military strategists and technologists over whether the Chinese are merely imitating advances or are engaged in independent innovation that will soon overtake the United States in the field.

“The Chinese leadership is increasingly thinking about how to ensure they are competitive in the next wave of technologies,” said Adam Segal, a specialist in emerging technologies and national security at the Council on Foreign Relations.

In August, the state-run China Daily reported that the country had embarked on the development of a cruise missile system with a “high level” of artificial intelligence. The new system appears to be a response to a missile the United States Navy is expected to deploy in 2018 to counter growing Chinese military influence in the Pacific.

Known as the Long Range Anti-Ship Missile, or L.R.A.S.M., it is described as a “semiautonomous” weapon. According to the Pentagon, this means that though targets are chosen by human soldiers, the missile uses artificial intelligence technology to avoid defenses and make final targeting decisions.

The new Chinese weapon typifies a strategy known as “remote warfare,” said John Arquilla, a military strategist at the Naval Post Graduate School in Monterey, Calif. The idea is to build large fleets of small ships that deploy missiles, to attack an enemy with larger ships, like aircraft carriers.

“They are making their machines more creative,” he said. “A little bit of automation gives the machines a tremendous boost.”

Whether or not the Chinese will quickly catch the United States in artificial intelligence and robotics technologies is a matter of intense discussion and disagreement in the United States.

Andrew Ng, chief scientist at Baidu, said the United States may be too myopic and self-confident to understand the speed of the Chinese competition.

“There are many occasions of something being simultaneously invented in China and elsewhere, or being invented first in China and then later making it overseas,” he said. “But then U.S. media reports only on the U.S. version. This leads to a misperception of those ideas having been first invented in the U.S.”

A key example of Chinese progress that goes largely unreported in the United States is Iflytek, an artificial intelligence company that has focused on speech recognition and understanding natural language. The company has won international competitions both in speech synthesis and in translation between Chinese- and English-language texts.

The company, which Chinese technologists said has a close relationship with the government for development of surveillance technology, said it is working with the Ministry of Science and Technology on a “Humanoid Answering Robot.”

“Our goal is to send the machine to attend the college entrance examination, and to be admitted by key national universities in the near future,” said Qingfeng Liu, Iflytek’s chief executive.

The speed of the Chinese technologists, compared to United States and European artificial intelligence developers, is noteworthy. Last April, Gansha Wu, then the director of Intel’s laboratory in China, left his post and began assembling a team of researchers from Intel and Google to build a self-driving car company. Last month, the company, Uisee Technology, met its goal — taking a demonstration to the International Consumer Electronics Show in Las Vegas — after just nine months of work.

“The A.I. technologies, including machine vision, sensor fusion, planning and control, on our car are completely home-brewed,” Mr. Wu said. “We wrote every line by ourselves.”

Their first vehicle is intended for controlled environments like college and corporate campuses, with the ultimate goal of designing a shared fleet of autonomous taxis.

The United States’ view of China’s advance may be starting to change. Last October, a White House report on artificial intelligence included several footnotes suggesting that China is now publishing more research than scholars here.

Still, some scientists say the quantity of academic papers does not tell us much about innovation. And there are indications that China has only recently begun to make A.I. a priority in its military systems.

“I think while China is definitely making progress in A.I. systems, it is nowhere close to matching the U.S.,” said Abhijit Singh, a former Indian military officer who is now a naval weapons analyst at the Observer Research Foundation in New Delhi.

Chinese researchers who are directly involved in artificial intelligence work in China have a very different view.

“It is indisputable that Chinese authors are a significant force in A.I., and their position has been increasing drastically in the past five years,” said Kai-Fu Lee, a Taiwanese-born artificial intelligence researcher who played a key role in establishing both Microsoft’s and Google’s China-based research laboratories.

Mr. Lee, now a venture capitalist who invests in both China and the United States, acknowledged that the United States is still the global leader but believes that the gap has drastically narrowed. His firm, Sinovation Ventures, has recently raised $675 million to invest in A.I. both in the United States and in China.

“Using a chess analogy,” he said, “we might say that grandmasters are still largely North American, but Chinese occupy increasingly greater portions of the master-level A.I. scientists.”

What is not in dispute is that the close ties between Silicon Valley and China both in terms of investment and research, and the open nature of much of the American A.I. research community, has made the most advanced technology easily available to China.

In addition to setting up research outposts such as Baidu’s Silicon Valley A.I. Laboratory, Chinese citizens, including government employees, routinely audit Stanford University artificial intelligence courses.

One Stanford professor, Richard Socher, said it was easy to spot the Chinese nationals because after the first few weeks, his students would often skip class, choosing instead to view videos of the lectures. The Chinese auditors, on the other hand, would continue to attend, taking their seats at the front of the classroom.

Artificial intelligence is only one part of the tech frontier where China is advancing rapidly.

Last year, China also brought the world’s fastest supercomputer, the Sunway TaihuLight, online, supplanting another Chinese model that had been the world’s fastest. The new supercomputer is thought to be part of a broader Chinese push to begin driving innovation, a shift from its role as a manufacturing hub for components and devices designed in the United States and elsewhere.

In a reflection of the desire to become a center of innovation, the processors in the new computer are of a native Chinese design. The earlier supercomputer, the Tianhe 2, was powered by Intel’s Xeon processors; after it came online, the United States banned further export of the chips to China, in hopes of limiting the Chinese push into supercomputing.

The new supercomputer, like similar machines anywhere in the world, has a variety of uses, and does not by itself represent a direct military challenge. It can be used to model climate change situations, for instance, or to perform analysis of large data sets.

But similar advances in high-performance computing being made by the Chinese could be used to push ahead with machine-learning research, which would have military applications, along with more typical defense functions, such as simulating nuclear weapons tests or breaking the encryption used by adversaries.

Moreover, while there appear to be relatively cozy relationships between the Chinese government and commercial technology efforts, the same cannot be said about the United States. The Pentagon recently restarted its beachhead in Silicon Valley, known as the Defense Innovation Unit Experimental facility, or DIUx. It is an attempt to rethink bureaucratic United States government contracting practices in terms of the faster and more fluid style of Silicon Valley.

The government has not yet undone the damage to its relationship with the Valley brought about by Edward J. Snowden’s revelations about the National Security Agency’s surveillance practices. Many Silicon Valley firms remain hesitant to be seen as working too closely with the Pentagon out of fear of losing access to China’s market.

“There are smaller companies, the companies who sort of decided that they’re going to be in the defense business, like a Palantir,” said Peter W. Singer, an expert in the future of war at New America, a think tank in Washington, referring to the Palo Alto, Calif., start-up founded in part by the venture capitalist Peter Thiel. “But if you’re thinking about the big, iconic tech companies, they can’t become defense contractors and still expect to get access to the Chinese market.”

Those concerns are real for Silicon Valley.

“No one sort of overtly says that, because the Pentagon can’t say it’s about China, and the tech companies can’t,” Mr. Singer said. “But it’s there in the background.”