Les marsouins de Dall sont des marsouins compacts et musclés qui rivalisent avec les épaulards en tant que mammifères marins les plus rapides dans les eaux de l’Alaska. Leur dos foncé et leur ventre et flancs blancs ressemblent aux marques des orques, mais ils sont plus petits, mesurant en moyenne 1,80 m de long et pesant environ 136 kg. Ils peuvent être des nageurs rapides et produisent souvent un jet de « queue de coq » qui peut être visible à longue distance. Les marsouins de Dall se déplacent généralement en équipes de 2 à 20 animaux. Ils se déplacent souvent par l’avant, un comportement idéal pour l’observation de la faune. L’étrave d’un bateau en mouvement produit une vague de stress dans l’eau, comme le grand moment de vent qui suit un camion en mouvement. Les marsouins et les dauphins s’approchent du bateau et nagent juste sous la surface, profitant de l’influx de stress. Le dauphin à flancs blancs du Pacifique, de taille similaire, bien connu des océanariums, se déplace souvent en troupeaux multi-espèces de plusieurs dizaines à plusieurs milliers d’animaux. Comme le marsouin de Dall avec lequel ils voyagent occasionnellement, ils sont des nageurs rapides et des cavaliers d’étrave communs ; cependant, le dauphin à flancs blancs du Pacifique se violera complètement en allant nager alors que le marsouin de Dall montre rarement ses nageoires. Les marsouins communs pèsent en moyenne 55 kg (120 lb), sont gris ou brun foncé et ont des nageoires dorsales nettement plus petites que celles des marsouins de Dall. On dit souvent qu’ils sont timides, mais il est beaucoup plus juste de dire qu’ils sont indifférents aux embarcations et aux activités humaines. En fait, ils ne se déplacent pas à l’aide d’un arc, Dauphins en Liberté mais on les voit souvent dans les mers calmes lorsque leur dos arrondi fend doucement la surface avec des mouvements de roulement. Les individus confondent souvent les marsouins et les dauphins, mais les deux sont issus de foyers distincts. Les dauphins ont normalement un bec et des nageoires dorsales plus apparentes. Les marsouins sont généralement de plus petite taille, sans les melons ou les becs distincts. Le marsouin de Dall peut être trouvé dans les mers de l’Alaska aussi significativement au nord que l’océan de Béring. Les marsouins à flancs blancs du Pacifique voyagent aussi loin au nord que l’île de Kodiak et se trouvent donc dans les Aléoutiennes et le golfe d’Alaska. Les marsouins communs peuvent être trouvés aussi loin au nord que l’océan de Beaufort pendant les mois sans glace. Recherchez les marsouins de Dall ou les dauphins à flancs blancs du Pacifique chaque fois que vous voyagez dans les eaux côtières de l’Alaska. Ils sont peut-être en train de faire un voyage en toute liberté sur la vague d’étrave de votre bateau. Les marsouins communs restent plus près du rivage dans les mers de moins de 300 pieds. Comme plusieurs membres du genre Lagenorhynchus, le dauphin à flancs blancs du Pacifique est trapu et possède un museau court et très épais. La zone de suggestion du museau, ou « zone des lèvres », est sombre. La fonction la plus distinctive de cette variété est vraiment une nageoire dorsale remarquable, fortement recourbée et bicolore. Le dos et les flancs gris foncé sont séparés du ventre blanc par une limite sombre. Des stries gris clair partant des bords des melons (le front bulbeux de nombreux dauphins, marsouins et baleines) s’incurvent vers le bas juste derrière l’œil et se prolongent par des zones thoraciques grises. Les « bandes de jarretelles » grises, commencent au-dessus de l’œil et s’étendent en groupes autour des côtés de l’emporte-pièce. Leurs grandes nageoires sont légèrement incurvées dans les idées. Les individus peuvent atteindre un poids corporel de 200 kg (440 livres) et peuvent mesurer jusqu’à 2,5 m (7 pieds), les mâles étant légèrement plus grands que les femelles. Ils se reproduisent de chien et mettent bas au printemps-été, occasionnellement au début de l’automne. Après une période de gestation de 10 ans, un seul veau naît, qui peut mesurer jusqu’à un mètre et peser jusqu’à 14 livres. Les femelles atteignent la maturité intime vers cinq ou six ans, et les mâles vers huit ou dix ans. Les mâles et les femelles voyagent dans des cosses de café, montrant un programme d’accouplement polygyne, avec un seul homme dominant qui se reproduira de chien avec les femmes facilement disponibles. Le dauphin à flancs blancs du Pacifique mange un certain nombre de petits poissons en bancs, comme les anchois et le merlu, en plus des calmars. Il semble que ces dauphins se nourrissent principalement de concentrations de créatures marines en eaux moyennes, connues sous le nom de » couche de dispersion profonde « , et qu’ils utilisent parfois des méthodes de recherche de nourriture d’appoint. De plus, ils sont fréquemment observés à l’aube ou au crépuscule en train de se nourrir avec des goélands de petites boules de fruits de mer non identifiés qui remontent à la surface. Les mouvements saisonniers ne sont pas très bien compris dans la plupart des endroits. Au large de la côte du Canada, il semble qu’il y ait des groupes de citoyens qui sont rejoints par des afflux de créatures au large de leurs emplacements pendant l’automne et le printemps. En été, les animaux peuvent voyager aussi loin au nord que l’île de Kodiak, et des dauphins ont été vus dans les Aléoutiennes et le golfe d’Alaska. On ne sait pas si ces individus sont membres du portage régional du Pacifique Nord, ou s’ils ont migré depuis le portage de Californie/Oregon/Washington. Les dauphins à flancs blancs du Pacifique sont très sociables et fréquemment observés se déplaçant en troupeaux multi-espèces de 10 à plusieurs milliers d’animaux. Le plus souvent, on les trouve en groupes d’une centaine d’animaux. Généralement, ces organisations comprennent toutes les classes d’âge et les deux sexes. Ils peuvent être des nageurs rapides, des archers typiques, et sont extrêmement vifs et acrobatiques. On les observe souvent en train de sauter, de tourner et de faire des culbutes. Ces cétacés grégaires sont souvent remarqués dans l’activité de nombreux autres mammifères marins, notamment le dauphin baleine noire.
Qu’est-ce que le marketing numérique ?
Qu’est-ce que le marketing numérique ?
À un niveau élevé, le marketing numérique fait référence à la publicité diffusée via des canaux numériques tels que les moteurs de recherche, les sites Web, les médias sociaux, les e-mails et les applications mobiles. En utilisant ces canaux médiatiques en ligne, le marketing numérique est la méthode par laquelle les entreprises approuvent les biens, les services et les marques. Les consommateurs dépendent fortement des moyens numériques pour rechercher des produits. Par exemple, les analyses marketing de Think with Google ont révélé que 48 % des consommateurs commencent leurs recherches sur les moteurs de recherche, tandis que 33 % se tournent vers les sites Web des marques et 26 % recherchent dans les applications mobiles.
Alors que le marketing numérique moderne est un énorme système de canaux auquel les spécialistes du marketing doivent simplement intégrer leurs marques, la publicité en ligne est beaucoup plus complexe que les canaux seuls. Afin d’exploiter le véritable potentiel du marketing numérique, formation seo Lille les spécialistes du marketing doivent creuser profondément dans le monde cross-canal vaste et complexe d’aujourd’hui pour découvrir des stratégies qui ont un impact grâce au marketing d’engagement. Le marketing d’engagement est la méthode permettant de former des interactions significatives avec des clients potentiels et fidèles en fonction des données que vous collectez au fil du temps. En engageant les clients dans un paysage numérique, vous renforcez la notoriété de votre marque, vous vous définissez comme un leader d’opinion du secteur et placez votre entreprise au premier plan lorsque le client est prêt à acheter.
En mettant en œuvre une stratégie de marketing numérique omnicanal, les spécialistes du marketing peuvent collecter des informations précieuses sur les comportements du public cible tout en ouvrant la porte à de nouvelles méthodes d’engagement client. De plus, les entreprises peuvent s’attendre à une augmentation de la rétention. Selon un rapport d’Invesp, les entreprises dotées de solides stratégies d’engagement client omnicanal retiennent en moyenne 89 % de leurs clients par rapport aux entreprises dotées de programmes omnicanaux faibles qui ont un taux de rétention de seulement 33 %.
En ce qui concerne l’avenir du marketing numérique, nous pouvons nous attendre à une augmentation continue de la variété d’appareils portables disponibles pour les consommateurs. Forbes prévoit également que les médias sociaux deviendront de plus en plus conversationnels dans l’espace B2B, que le contenu vidéo sera affiné à des fins d’optimisation pour les moteurs de recherche (SEO) et que le marketing par courrier électronique deviendra encore plus personnalisé.
Le numérique est au cœur de tout dans le marketing aujourd’hui – il est passé de « l’une des choses que fait le marketing » à « LA chose que fait le marketing ».
Pour optimiser vos stratégies marketing, le digital est obligatoire. Le marketing numérique peut vous aider à connaître votre public, à obtenir des données importantes à son sujet et à fournir des mesures qui donneront de la crédibilité à votre équipe marketing.
Problème : Je ne connais pas suffisamment mon audience pour commencer. Apprendre à connaître votre public prend du temps, et bien que votre équipe marketing ait développé des personnalités pouvant être utiles, les consommateurs qui passent activement du temps en ligne peuvent ne pas se comporter comme vous le souhaiteriez. Vous devrez tester différents langages avec différentes cibles, en gardant à l’esprit que certains descripteurs plairont à différentes personnes et à leur place dans le cycle d’achat. Adaptez-vous à votre public et vous bâtirez une crédibilité qui vous distinguera de la concurrence.
Problème : Je n’ai pas optimisé mes canaux pour le référencement. Quelle que soit votre position dans le processus marketing, il est important de comprendre les meilleures pratiques en matière de référencement. En plus d’améliorer le classement dans les moteurs de recherche, le référencement peut renforcer et soutenir les tests et l’optimisation de votre campagne pour garantir que vous fournissez un contenu de haute qualité et précieux que vos clients potentiels souhaitent.
Problème : Je n’ai pas de stratégie pour les réseaux sociaux. Que vous souhaitiez développer une stratégie de médias sociaux organique, une stratégie de médias sociaux payante ou un mélange des deux, il est important de mettre en place une forme de marketing social. Bien que les médias sociaux soient excellents pour l’image de marque et l’engagement, ils peuvent également être un canal utile pour la publicité marketing numérique. Trouvez un créneau et une voix cohérente, soyez patient, et à mesure que le nombre de vos abonnés augmente, l’impact de vos publicités augmentera également.
Problème : Mes équipes marketing sont cloisonnées. Il est important de sortir des silos pour créer des structures agiles et fluides. Vos clients ne sont pas séquestrés dans un seul canal en attente de publicités. Vos efforts marketing doivent donc déployer des fonctionnalités multicanaux avec des équipes qui apportent plusieurs compétences pour engager les clients là où ils se trouvent. Chaque réseau social et canal comprend des publics et des attentes différents, de sorte que les efforts de marketing peuvent sembler complètement différents pour chacun. Cela inclut le ton, les images, les offres et même l’heure à laquelle vous publiez.
Problème : Je suis soumis à la pression de mon directeur marketing pour qu’il mette en place des rapports sur les métriques qui soutiennent les résultats. Le marketing numérique prend en charge un vaste univers de métriques qui peuvent être utilisées pour déterminer l’efficacité de vos efforts marketing, mais ces métriques doivent être choisies avec soin. Chaque cas dépendra de la composition de votre public et se concentrera sur chaque canal. En gardant cela à l’esprit, commencez par déterminer vos objectifs pour chaque canal et définissez les métriques que votre CMO voudra le plus voir.
Assurez-vous d’avoir éliminé tous les obstacles à la mise en œuvre avec notre guide Les 8 plus grandes erreurs de marketing numérique et comment les éviter.
Composantes du marketing numérique
Le marketing numérique s’étend sur un vaste réseau de points de contact numériques avec lesquels les clients interagissent plusieurs fois par jour. Pour utiliser correctement ces canaux, vous devez avoir une compréhension de chacun.
Recherche payante. La recherche payante, ou publicité au paiement par clic (PPC), fait généralement référence au résultat sponsorisé en haut ou sur le côté d’une page de résultats de moteur de recherche (SERP). Ces publicités vous facturent pour chaque clic et elles peuvent être personnalisées pour apparaître lorsque certains termes de recherche sont saisis, de sorte que vos publicités ciblent des publics qui recherchent quelque chose en particulier. Ces publicités peuvent être extrêmement efficaces, car elles reposent sur des données glanées à partir du comportement en ligne des individus et sont utilisées pour augmenter le trafic sur le site Web en diffusant des publicités pertinentes aux bonnes personnes au bon moment. Ces publicités impliquent également un reciblage, ce qui signifie qu’en fonction des actions des clients, les outils d’automatisation du marketing peuvent créer des publicités multiplateformes uniques et personnelles.
Optimisation des moteurs de recherche (SEO). Le référencement est le processus d’optimisation du contenu, de la configuration technique et de la portée de votre site Web, de sorte que vos pages apparaissent en haut des résultats d’un moteur de recherche pour un ensemble spécifique de termes de mots clés. L’utilisation du référencement peut conduire les visiteurs vers votre site lorsqu’ils affichent un comportement impliquant qu’ils recherchent des produits pertinents, ce qui peut changer la donne étant donné que 90 % des personnes qui recherchent ne se sont pas encore fait une opinion sur une marque (Status Labs, 2018 ). Alors que le PPC et le reciblage ont leur place, le trafic en ligne organique généré par l’optimisation des moteurs de recherche a une énorme influence sur les classements de recherche et, par extension, le trafic organique du site. En utilisant des mots-clés et des phrases, vous pouvez utiliser le référencement pour augmenter massivement la visibilité et entamer une relation client durable. Le référencement est défini comme l’augmentation du classement d’un site Web dans les résultats de recherche en ligne, et donc de son trafic organique, en utilisant des mots-clés et des phrases populaires. Les stratégies de référencement solides ont une influence considérable dans les campagnes de marketing numérique, car la visibilité est la première étape d’une relation client durable.
Marketing de contenu. Un marketing de contenu efficace n’est pas de nature promotionnelle extérieure, mais sert plutôt à éduquer et à inspirer les consommateurs qui recherchent des informations. Lorsque vous proposez un contenu pertinent pour votre public, cela peut vous garantir en tant que leader d’opinion et source d’informations digne de confiance, ce qui réduit le risque que vos autres efforts de marketing se perdent dans la statique. À l’ère de l’acheteur autogéré, le marketing de contenu obtient trois fois plus de prospects que la publicité payante sur les recherches, donc cela vaut bien l’effort supplémentaire.
Marketing des médias sociaux. La clé d’un marketing efficace sur les réseaux sociaux va bien au-delà du simple fait d’avoir des comptes de réseaux sociaux actifs. Vous devez également intégrer des éléments sociaux dans chaque aspect de vos efforts de marketing pour créer autant d’opportunités de partage d’égal à égal que possible. Plus votre public est inspiré à s’engager avec votre contenu, plus il est susceptible de le partager, inspirant potentiellement ses pairs à devenir également des clients.
Publicité par e-mail. Après plus de deux décennies, le courrier électronique reste le moyen le plus rapide et le plus direct d’atteindre les clients avec des informations critiques. Aujourd’hui, les campagnes par e-mail réussies doivent être incroyablement engageantes, pertinentes, informatives et divertissantes pour ne pas être enfouies dans la boîte de réception de vos clients. Pour réussir, vos e-mails marketing doivent satisfaire cinq attributs fondamentaux. Ils doivent être dignes de confiance, pertinents, conversationnels, coordonnés entre les canaux et stratégiques.
Marketing mobile. Les appareils mobiles sont rangés dans nos poches, placés à côté de nos lits et contrôlés en permanence tout au long de la journée. Cela rend le marketing sur mobile extrêmement important – les deux tiers des consommateurs peuvent se souvenir d’une marque spécifique qu’ils ont vue annoncée sur mobile la semaine dernière – mais le mobile est également très nuancé compte tenu de sa nature intime. Les SMS, MMS et le marketing in-app sont toutes des options pour atteindre vos clients sur leurs appareils, mais au-delà de cela, vous devez envisager la coordination de vos efforts marketing sur vos autres canaux de marketing numérique.
Automatisation du marketing. L’automatisation du marketing est une plate-forme intégrale qui relie tout votre marketing numérique. En fait, les entreprises qui automatisent la gestion des prospects voient leurs revenus augmenter de 10 % ou plus en six à neuf mois. Sans cela, vos campagnes ressembleront à un puzzle inachevé avec une pièce manquante cruciale. Un logiciel d’automatisation du marketing rationalise et automatise les tâches et le flux de travail marketing, mesure les résultats et calcule le retour sur investissement (ROI) de vos campagnes numériques, vous aidant ainsi à augmenter vos revenus plus rapidement. L’automatisation du marketing peut vous aider à obtenir des informations précieuses sur les programmes qui fonctionnent et ceux qui ne fonctionnent pas, et elle fournira des mesures pour vous permettre de parler des efforts du marketing numérique sur les résultats de votre entreprise.
Apprenez-en plus sur ce que le marketing numérique peut offrir dans notre guide Marketing numérique 101 : Outils clés pour le marketing d’engagement.
ROI d’un programme de marketing numérique réussi
Le retour sur investissement du marketing numérique implique bien plus que le remboursement initial des bannières publicitaires standard, le marketing de contenu organique est également un acteur majeur dans l’espace du marketing numérique.
Le marketing numérique atteint les clients au-delà des publicités. Soixante-dix pour cent des internautes souhaitent en savoir plus sur les produits via le contenu par rapport aux publicités traditionnelles (MDG, 2014).
Le marketing numérique stimule le marketing de contenu. Les cinq principales tactiques de marketing de contenu B2B sont le contenu des médias sociaux (92 %), les bulletins d’information électroniques (83 %), les articles sur votre site Web (81 %), les blogs (80 %) et les événements en personne (77 %) ( la source).
Apprenez-en plus sur l’investissement et la budgétisation pour maximiser le retour sur investissement avec notre ebook Le guide du marketing numérique sur l’allocation des ressources et du budget sur les canaux.
Planifier, mettre en œuvre et optimiser votre programme de marketing numérique
Commencez le lancement de votre programme de marketing numérique en déterminant d’abord votre public et vos objectifs, puis en mettant en place des mesures pour vous assurer que vous vous améliorez toujours.
Étape 1 : Identifiez et segmentez vos audiences. Aujourd’hui, les acheteurs s’attendent à une expérience personnalisée à chaque point de contact. Pour ce faire, vous devez comprendre leurs attributs démographiques, firmographiques et technologiques, ainsi que la manière de répondre à leurs questions et problèmes.
Étape 2 : Établir des objectifs et une stratégie de mesure. Utilisez les informations sur l’audience pour déterminer les personas et obtenez une vue claire de leur parcours de vente pour établir vos objectifs et votre stratégie de mesure. Les métriques importantes incluent les impressions, la portée, les clics, le taux de clics (CTR), le taux d’engagement, les conversions, le coût par prospect (CPL), le coût effectif pour mille (eCPM), ainsi que des métriques back-end comme le retour sur investissement (ROI) ), le retour sur les dépenses publicitaires (ROAS), l’attribution au premier contact et multi-touch et la valeur client à vie (LCV).
Étape 3 : Configurez votre adtech et vos canaux. La technologie publicitaire peut prendre un certain temps à naviguer, alors assurez-vous d’avoir les bonnes plates-formes de gestion des données (DMP), les plates-formes côté demande (DSP), les plates-formes côté offre (SSPS) et les échanges publicitaires en place avant de commencer. Alignez votre équipe, communiquez les objectifs de chacun et montrez comment leurs canaux s’intègrent dans l’ensemble du marketing numérique.
Étape 4 : Lancez et optimisez. Le marketing numérique peut être utilisé pour l’acquisition, l’entretien, la fidélisation de la clientèle et l’image de marque. Examinez régulièrement les métriques afin de savoir où vous excellez et où vous avez besoin de travailler pour devenir un leader dans cet espace à fort impact et à forte demande.
Kuhn et une appréciation philosophique
Thomas S. Kuhn est un historien des sciences américain reconnu pour The Structure of Technological Revolutions (1962), probablement les ouvrages d’histoire et de philosophie les plus importants imprimés au XXe siècle. Kuhn a obtenu une licence (1943) et une maîtrise (1946) en physique à l’Université Harvard, mais a obtenu son doctorat. (1949) dans l’histoire de la recherche scientifique. Il a étudié le passé historique ou l’approche de la recherche scientifique à Harvard (1951-56), au College of Ca à Berkeley (1956-64), au Princeton College (1964-79), ainsi qu’à la Massachusetts Institution of Technologies (1979-91 ). Dans sa première réserve, The Copernican Trend (1957), Kuhn a étudié la création de la théorie héliocentrique à partir du programme d’énergie solaire tout au long de la Renaissance. Dans son deuxième livre historique, La structure des révolutions technologiques, il a affirmé que la recherche technologique et la croyance sont définies par des « paradigmes » ou des visions du monde conceptuelles, qui incluent des concepts formels, des tests traditionnels et des techniques fiables. La tension entre histoire des idées et arrière-plan mental réapparaît dans l’histoire de la recherche scientifique à l’intérieur d’une tension entre les approches « internalistes » et « externalistes » du sujet. Pour l’internaliste, les préoccupations essentielles sont : quel problème le scientifique essayait-il de résoudre, et comment l’a-t-il résolu ? Pour répondre à ces questions, l’historien doit clairement connaître dans des détails intimes l’état de la technologie crue à l’époque sur laquelle il est en train de créer. Mais il doit également connaître les écrous et les boulons de montage du travail scientifique, l’équipement, les animaux de laboratoire, le cas échéant, et autres. Les problèmes d’analyse sont susceptibles d’être générés dans le cadre de ce que Kuhn appelle la « recherche scientifique normale », qui a des méthodes correctement reconnues pour valider les résultats. (Les résultats anormaux peuvent être considérés comme des erreurs expérimentales, bien que lorsqu’ils s’accumulent, ils peuvent conduire à un renversement d’un paradigme établi de la recherche scientifique normale.) Le grand mérite de la stratégie internaliste peut également être la source de leur meilleure difficulté. Il traite de la manière dont la recherche scientifique est en fait achevée, ce qui signifie que seuls quelques historiens ont les connaissances scientifiques nécessaires pour l’écrire. Cette difficulté deviendra particulièrement aiguë lorsqu’il s’agira de la science contemporaine (en gros, de la science parce que du début du XIXe siècle). La littérature en arrière-plan de la science se concentre de manière disproportionnée sur la soi-disant révolution technologique du 17ème siècle. L’une des raisons derrière cela est que la révolution scientifique a été une période héroïque, mais une autre raison est qu’il faut beaucoup moins de connaissances de la science contemporaine pour comprendre Galilée, Johannes Kepler ou Isaac Newton qu’il n’en faut pour comprendre Albert Einstein ou Werner Heisenberg. L’ignorance de l’exercice scientifique peut être davantage masquée en se concentrant sur ce que les scientifiques disent de leur méthode dans les préfaces de leurs fonctions. Il peut sembler inhabituel de faire une distinction entre la technique scientifique et l’exercice, mais ce n’est pas le cas. La « méthode » n’est pas simplement un exercice distillé, et c’est parfois une description inadéquate des éléments que les chercheurs font réellement. Il semble clair que les améliorations de la méthode scientifique avaient assez peu de rapport avec les succès de la révolution scientifique. De plus, certaines fonctions technologiques (celles de Francis Bacon, par exemple) sont à peine déguisées est attrayante pour le financement, de même que les préfaces d’autres personnes ne sont pas exemptes d’auto-publicité. Les chercheurs prennent généralement un paradigme existant et essaient d’étendre sa portée en affinant les théories, en décrivant des données déroutantes et en définissant des étapes plus précises de normes et de phénomènes. Finalement, néanmoins, leurs efforts peuvent générer des problèmes théoriques insolubles ou des anomalies expérimentales qui révèlent les insuffisances d’un paradigme ou le contredisent complètement. Cette accumulation de problèmes provoque une crise qui ne peut être résolue que par une révolution mentale qui remplace un ancien paradigme par un nouveau. Le renversement de la cosmologie ptolémaïque par l’héliocentrisme copernicien, et le déplacement des techniciens newtoniens par la physique quantique et la relativité fondamentale, sont généralement des types de changements de paradigme importants. Kuhn a remis en question la conception traditionnelle de l’amélioration scientifique étant une acquisition progressive et cumulative de connaissances selon des cadres expérimentaux choisis de manière rationnelle. Il a plutôt soutenu que le paradigme détermine les types d’expériences que les chercheurs mènent, les types de questions qu’ils posent et les problèmes qu’ils considèrent comme essentiels. Un changement de paradigme modifie les idées fondamentales de la recherche fondamentale et motive de nouvelles normes de preuve, de nouvelles techniques d’information et de nouvelles voies théoriques et essaie des choses qui sont radicalement sans commune mesure avec les types âgés. La réserve de Kuhn a transformé le passé historique et la philosophie de la recherche scientifique, et son concept impressionnant de changement de paradigme s’est étendu à des disciplines telles que les sciences politiques, l’économie d’entreprise, la sociologie et même la gestion d’entreprise. Les travaux ultérieurs de Kuhn étaient une sélection d’essais, The Essential Tension (1977), ainsi que la recherche technique Black-Entire body Idea et Quantum Discontinuity (1978).
La nouvelle économie nuit aux étudiants en science
Comment le modèle économique de la nouvelle économie américaine a dévalué les doctorats en sciences et en génie
Au début de son article, Weinstein soutient que:
Les pénuries de main-d’œuvre à long terme ne se produisent pas naturellement dans les économies de marché. Cela ne veut pas dire qu’ils n’existent pas. Ils sont créés lorsque les employeurs ou les agences gouvernementales altèrent le fonctionnement naturel du mécanisme des salaires.
L’affirmation, écrite du point de vue de la fin des années 1990, est que dans la première moitié des années 1990, une offre excédentaire (une surabondance) de main-d’œuvre en sciences et en génie (S&E) qui a fait baisser les salaires des docteurs et des ingénieurs était principalement le résultat de la promotion d’un programme gouvernement-université-industrie (GUI), coordonné par la National Science Foundation sous la direction d’Erich Bloch, chef de la NSF de 1984 à 1990. À partir de 1985, la NSF a prédit un manque à gagner de 675 000 employés de S&E au l’économie américaine au cours des deux prochaines décennies. Selon une étude de la division PRA (Policy Research and Analysis) de la NSF, citée par Weinstein, les données salariales montrent que le salaire réel au niveau du doctorat a commencé à augmenter après 1982, passant de 52000 $ à 64000 $ en 1987 (mesuré en dollars de 1984). Un ensemble de projections salariales montre que la rémunération réelle atteindra 75 000 $ en 1996 et approchera 100 000 $ peu après l’an 2000.
Weinstein soutient que l’agenda de l’interface graphique (inspiré de Reaganomics) visait à empêcher ces augmentations de salaire. Il soutient que la législation qui a permis cette offre excédentaire était la loi sur l’immigration de 1990 qui a élargi le programme de visas des non-immigrants H-1B et instauré des préférences en matière d’immigration fondées sur l’emploi. Étant donné que la plupart de ces étrangers provenaient de pays à bas salaires (asiatiques), on suppose qu’ils étaient attirés par les salaires élevés aux États-Unis, alors que les Américains titulaires d’un doctorat en S&E ont commencé à fuir les carrières en S&E comme salaires. est devenu moins attrayant.1
Il manque beaucoup du point de vue de Weinstein, qui est également le point de vue du démographe Michael Teitelbaum, que Weinstein cite abondamment et qui a été à la Fondation Sloan de 1983 à 2013, passant au poste de vice-président en 2006. Weinstein et Teitelbaum voient les salaires des les scientifiques et les ingénieurs sont déterminés par l’offre et la demande sur le marché du travail (le taux de salaire naturel « et le fonctionnement naturel du marché du travail »). De ce point de vue (néoclassique), ils ignorent complètement la marchéisation « des relations de travail pour les travailleurs de S&E qui a eu lieu dans le secteur des entreprises américain à partir du milieu des années 80 ainsi que la financiarisation concomitante » de la société commerciale américaine qui reste, à mon avis, le problème économique le plus dommageable auquel sont confrontés les États-Unis. Cette transformation des relations de travail a mis au chômage un grand nombre de doctorants et d’ingénieurs qui avaient auparavant un emploi sûr et qui bénéficiaient de revenus et d’avantages élevés ainsi que de carrières créatives en entreprise. La commercialisation des relations de travail a mis fin à la norme d’une carrière dans une entreprise (CWOC) – une norme d’emploi qui était omniprésente dans les sociétés commerciales américaines des années 1950 aux années 1980, mais qui a depuis disparu. 2 La financiarisation »de la société, qui s’est manifestée par des distributions massives aux actionnaires sous forme de dividendes en espèces et de rachats d’actions, a miné les opportunités de carrières en S&E dans le secteur des entreprises.
La principale cause de la commercialisation a été la montée du modèle économique de la nouvelle économie »(NEBM) dans lequel les startups de haute technologie, principalement dans les technologies de l’information et de la communication (TIC) et la biotechnologie, ont détourné le personnel de S&E des entreprises établies, qui offraient CWOC dans le cadre du modèle économique de la vieille économie »(OEBM). En tant que startups avec un avenir incertain, les entreprises de la nouvelle économie ne pouvaient pas offrir de manière réaliste CWOC, mais ont plutôt attiré le personnel S&E loin de CWOC dans les entreprises de la vieille économie en offrant à ces employés des options d’achat d’actions en plus de leurs salaires (qui étaient généralement inférieurs à ceux de la vieille économie). entreprises). Les options d’achat d’actions pourraient devenir extrêmement précieuses si et quand la startup faisait un premier appel public à l’épargne (IPO) ou une fusion-acquisition (M&A) avec une société cotée en bourse établie.
L’augmentation des salaires de doctorat en S&E de 1982 à 1987, identifiée dans l’étude NSF citée par Weinstein, était le résultat de la demande accrue de personnel S&E par les entreprises de la nouvelle économie, une partie de l’augmentation prenant la forme d’un salaire à base d’actions, qui en les données du recensement tirées des déclarations de revenus sont regroupées avec les salaires.3 En concurrence avec les entreprises pour le personnel de S&E, la montée du NEBM a à son tour exercé une pression sur les salaires des entreprises de la vieille économie alors qu’elles tentaient d’utiliser le CWOC pour attirer et retenir la main-d’œuvre de S&E dans le face à l’alternative à base d’actions. Dans la dernière moitié des années 1980, ce concours de la nouvelle économie pour les talents érodait les capacités d’apprentissage des laboratoires de recherche d’entreprise qui, dans de nombreux cas depuis le début du XXe siècle, avaient été une caractéristique des entreprises de la vieille économie dans un large éventail de connaissances. -industries intensives. 4
La norme CWOC dans le cadre de l’OEBM avait assuré la sécurité de l’emploi et la hausse des salaires des années de service dans l’entreprise et la promotion interne du personnel de S&E (dont une proportion importante dans les entreprises à vocation scientifique avait un doctorat). Comme je le montre dans mon livre Sustainable Prosperity in the New Economy ?, le début de la fin du CWOC a été la transformation d’IBM, leader mondial de l’informatique, d’OEBM en NEBM de 1990 à 1994. En 1990, avec 374 000 employés, IBM se vantait toujours de son adhésion à la norme CWOC (l’appelant un emploi à vie »), affirmant que la société n’avait licencié personne involontairement depuis 1921. En 1994, IBM comptait 220 000 employés et, avec les cadres supérieurs du PDG Louis Gerstner eux-mêmes licenciés pour ne pas licencier des employés assez rapidement, le CWOC était de l’histoire ancienne. Au cours des années 1990 et dans les années 2000, d’autres grandes sociétés de la vieille économie ont suivi l’exemple d’IBM, mettant à pied des employés plus âgés, dont beaucoup étaient très instruits et avaient une expérience accumulée qui était auparavant très appréciée par les entreprises.
Déjà au début des années 1990, la commercialisation des relations de travail était responsable d’une baisse abrupte de l’emploi dans les laboratoires de recherche des entreprises qui avaient soutenu la croissance au XXe siècle des entreprises de haute technologie de la vieille économie, dont IBM était un exemple. En 1993, une conférence tenue à la Harvard Business School a décrié la fin d’une ère «dans la recherche industrielle, avec des articles de la conférence parus dans un volume Engines of Innovation, publié en 1996.5 Dans le chapitre d’introduction, intitulé Technology’s Vanishing Wellspring», les organisateurs de la conférence et les éditeurs de volumes Richard Rosenbloom et William Spencer ont fait valoir que la recherche industrielle (par opposition au développement de produits) du type qui avait été effectuée par les laboratoires d’entreprise à l’âge d’or »des décennies de l’après-Seconde Guerre mondiale élargit la base de connaissances sur laquelle les industries existantes dépendent et génèrent de nouvelles connaissances qui conduisent à de nouvelles technologies et à la naissance de nouvelles industries. » Dans l’environnement plus concurrentiel des années 1980 et 1990, cependant, dans les nouvelles industries de la biotechnologie, des matériaux exotiques et des produits d’information (et des services qui en découlent) », Rosenbloom et Spencer ont observé qu’il était plus difficile pour les entreprises de conserver de nouvelles technologies. entièrement propriétaire », et donc les activités de recherche ont été réduites, réorientées et restructurées au cours des dernières années au sein de la plupart des entreprises qui étaient autrefois parmi les plus grands sponsors de la recherche industrielle.» 6
Il ne fait aucun doute que les docteurs en S&E ont été les principales victimes de cette transformation. Mais le problème auquel ils ont été confrontés, avec la plupart des autres membres de la population active américaine, n’est pas simplement la commercialisation des relations de travail. Pour des raisons que j’ai décrites en détail dans mes publications citées ci-dessus, la transition de l’OEBM à la NEBM s’est accompagnée de la financiarisation »de la US Business Corporation car, à partir de la dernière moitié des années 80, les conseils d’administration et les écoles de commerce des États-Unis ont adopté l’idéologie qui, dans un souci de performance économique supérieure, une entreprise commerciale doit être dirigée pour maximiser la valeur actionnariale »(MSV). Au lieu de retenir les employés et de réinvestir dans leurs capacités de production, comme cela avait été le cas lorsque CWOC avait prévalu, MSV a préconisé et légitimé la réduction des effectifs de l’entreprise et la distribution des revenus des sociétés aux actionnaires sous la forme de dividendes en espèces et de rachats d’actions . 7
Avec la disparition du CWOC, les employés âgés étaient les plus vulnérables, non seulement parce qu’ils avaient tendance à avoir les salaires les plus élevés, mais aussi parce que le passage d’OEBM à NEBM était un changement de systèmes technologiques exclusifs, dans lesquels des employés ayant de longues années d’expérience étaient très appréciée, aux systèmes technologiques ouverts qui favorisaient les jeunes travailleurs possédant les dernières compétences informatiques (souvent acquises en travaillant dans d’autres entreprises). Dans le cadre du CWOC, les employés plus âgés étaient plus chers non pas à cause d’un taux de salaire naturel « qui était le résultat de l’offre et de la demande sur le marché du travail de S&E, mais à cause des échelles d’emploi internes qui font partie intégrante d’une ressource de conservation et de réinvestissement ». régime d’allocation. Les salaires des employés de S&E ont eu tendance à augmenter avec les années d’expérience dans l’entreprise, avec une retraite à prestations définies (basée sur les années de service et les niveaux de salaire les plus élevés) à la retraite. Ces types de relations de travail sûres, et les niveaux de rémunération élevés et croissants qui y sont associés, étaient la norme parmi les entreprises de haute technologie établies au milieu des années 80, mais, comme en témoigne la transformation d’IBM, ont commencé à se défaire au début des années 90, et ont pratiquement disparu une décennie plus tard, alors que les entreprises de la vieille économie ont soit fait la transition vers le NEBM, soit disparu.8 Le coupable de l’affaiblissement de la demande et des revenus des docteurs en S&E depuis le début des années 1990 était la disparition du CWOC … un phénomène que Weinstein (et Teitelbaum) ignorent entièrement.
Avec l’essor du NEBM, les entreprises recherchaient des employés plus jeunes et moins chers, et c’est la principale raison pour laquelle, à la fin des années 1980, l’industrie des TIC a poussé à une expansion des visas non-immigrés H-1B et des visas d’immigration basés sur l’emploi. Il n’est pas du tout clair qu’un afflux de docteurs en provenance de pays étrangers via ces programmes compromettait les revenus des docteurs en S&E au début des années 90. La plupart des titulaires de visa H-1B avaient un baccalauréat lorsqu’ils sont entrés aux États-Unis. Dans le même temps, un grand nombre de titulaires de visa non-immigrant sont entrés aux États-Unis avec des visas d’étudiant pour faire des diplômes de maîtrise et de doctorat, puis ont cherché un emploi avec des visas H-1B pour leur permettre de rester aux États-Unis pendant de longues périodes ( jusqu’à sept ans) .9 C’est en réponse à la disponibilité des diplômés de l’enseignement supérieur des universités américaines qu’en 2005, 20 000 visas H-1B supplémentaires ont été ajoutés au plafond normal de 65 000. Sans l’afflux d’étudiants étrangers dans les programmes de maîtrise et de doctorat en S&E des États-Unis, bon nombre de ces programmes n’auraient pas survécu. Par cette voie, le programme de visa H-1B a fait
plus de doctorats nés à l’étranger disponibles pour les entreprises aux États-Unis. Mais je postule que c’est la disparition de l’OEBM et l’augmentation du NEBM, et non une augmentation de l’offre de doctorats nés à l’étranger, qui ont exercé une pression à la baisse sur les revenus de carrière des membres les plus instruits de la population active américaine.
En plus de permettre aux employeurs d’accéder à une offre élargie de main-d’œuvre de haute technologie plus jeune et moins chère aux États-Unis, le visa H-1B ainsi que le visa L-1 pour les personnes qui avaient précédemment travaillé pour l’employeur pendant au moins un an en dehors des États-Unis Les États ont un autre attribut précieux pour les employeurs: la personne titulaire du visa est immobile sur le marché du travail – elle ne peut pas changer d’emploi – alors que dans le cadre du NEBM, les travailleurs de haute technologie les plus appréciés sont ceux qui sont très mobiles. Cette mobilité de la main-d’œuvre peut augmenter la rémunération du travailleur, mais est très problématique pour une entreprise qui a besoin que ces employés soient engagés dans des processus d’apprentissage collectifs et cumulatifs qui sont l’essence même de la génération de produits compétitifs. Dans le cadre de l’OEBM, le CWOC était l’institution centrale pour l’emploi des travailleurs diplômés du Collège précisément en raison de la nécessité d’un apprentissage collectif et cumulatif. Mais c’est la montée du NEBM, et non la loi sur l’immigration de 1990, qui a miné le CWOC. La domination croissante de NEBM avec ses architectures de systèmes ouverts a ensuite conduit les employeurs à utiliser davantage les visas H-1 et L-1 dans les années 1980, les incitant à se placer derrière un plafond élargi pour les visas H-1B dans la loi sur l’immigration de 1990. dix
Une fois que l’OEBM a été attaquée par le NEBM, avec son offre de rémunération à base d’actions, ces sociétés sont devenues un terrain fertile pour l’adoption de l’idéologie selon laquelle une entreprise devrait être dirigée pour maximiser la valeur actionnariale »(MSV). Cette transformation capitale de la gouvernance d’entreprise aux États-Unis s’est produite à partir de la fin des années 1980, légitimant la transition d’un régime de gouvernance d’entreprise avec rétention et réinvestissement à un régime de réduction des effectifs et de distribution. Dans les années 1990 et au-delà, cette transformation de la gouvernance d’entreprise a ravagé le CWOC dans toute l’Amérique des entreprises, y compris les entreprises à forte intensité de connaissances. 11 Avec l’érosion de la recherche d’entreprise, le personnel de haute technologie a répondu à l’attrait de la rémunération à base d’actions des sociétés NEBM, y compris non seulement les startups, mais aussi celles telles qu’Intel, Microsoft, Oracle, Sun Microsystems et Cisco Systems qui, au cours des années 1990, sont devenues emploient des dizaines de milliers de personnes, la plupart avec une rémunération à base d’actions – les cadres supérieurs des entreprises de haute technologie de la vieille économie ont commencé à voir le cours des actions de leur entreprise non seulement comme un élément clé de la taille de leurs propres systèmes de rémunération à base d’actions, mais aussi comme un instrument pour concurrencer un large éventail de personnel de haute technologie. Comme l’illustre IBM dans les années 1990 et au-delà, le prix des actions d’une entreprise pourrait être augmenté en licenciant des travailleurs âgés coûteux et en utilisant le flux de trésorerie gratuit résultant (comme les fournisseurs de MSV l’appelaient) pour effectuer des rachats d’actions. 12
Comme je l’ai expliqué en détail, au cours des trois dernières décennies, ce pillage légalisé de la société commerciale américaine n’a fait qu’empirer. Comme le montre le tableau 1, en raison des rachats d’actions, les émissions nettes de capitaux propres des sociétés non financières américaines ont été, en dollars de 2015, moins 4,5 billions de dollars au cours de la décennie 2006-2015. En 2016, les émissions nettes d’actions ont été de moins 586 milliards de dollars. Les émissions nettes d’actions sont de nouvelles émissions d’actions par des sociétés (dans ce cas, des sociétés non financières) moins les actions retirées du marché à la suite de rachats d’actions et d’opérations de fusions et acquisitions. Les chiffres massivement négatifs des dernières décennies sont le résultat de rachats d’actions. J’ai calculé les émissions nettes d’actions en pourcentage du PIB par décennie pour fournir une mesure de la valeur des rachats effectués par rapport à la taille de l’économie américaine. En dollars absolus ajustés en fonction de l’inflation et en pourcentage du PIB, les rachats sont devenus un mode privilégié d’allocation des ressources des entreprises dans l’économie américaine. Contrairement à la croyance populaire, dans l’ensemble, les sociétés américaines financent le marché boursier, et non l’inverse. Notez que presque tous les rachats au cours de la décennie 1976-1985 ont eu lieu en 1984 et 1985 après qu’en novembre 1982, la Securities and Exchange Commission des États-Unis a adopté la règle 10b-18 qui autorisait les rachats massifs, légalisant essentiellement la manipulation systémique des cours des actions et la pillage de la société commerciale américaine.
Au cours des années 2006-2015, les 459 sociétés de l’indice S&P 500 en janvier 2016 cotées en bourse au cours de la période de dix ans ont dépensé 3,9 billions de dollars en rachats d’actions, représentant 53,6% du bénéfice net, plus 36,7% du dividendes. Une grande partie des 9,7% restants des bénéfices était détenue à l’étranger, à l’abri des impôts américains. Les rachats moyens pour ces 459 sociétés variaient de 291 millions de dollars en 2009, lorsque les marchés boursiers s’étaient effondrés, à 1 205 millions de dollars en 2007, lorsque le marché boursier avait culminé avant la grande crise financière. En 2015, avec le marché boursier en plein essor, les rachats moyens de ces sociétés se sont élevés à 1 173 millions de dollars. Parallèlement, les dividendes ont légèrement diminué en 2009, mais au cours de la période 2006-2015, ils ont évolué en termes réels.
Parmi les plus grands acheteurs, on trouve les plus grandes sociétés américaines de haute technologie. Le tableau 2 présente les 25 principaux acheteurs au cours de la décennie 2006-2015. Exxon Mobil, Microsoft, IBM, Apple, Cisco Systems, Hewlett Packard, Pfizer, Oracle, Intel, General Electric, Johnson & Johnson, Chevron et ConocoPhillips comptent parmi les sociétés auxquelles on s’attendrait à employer un grand nombre de docteurs en S&E. Nous ne connaissons pas le nombre historique de docteurs en S&E dans ces entreprises, mais je suppose que ces chiffres seraient beaucoup plus élevés qu’ils ne le seraient si les entreprises n’étaient pas financiarisées. Beaucoup des plus grandes sociétés américaines
distribuer régulièrement plus de 100% du revenu net aux actionnaires, générant des liquidités supplémentaires en réduisant les réserves de liquidités, en vendant des actifs, en contractant des dettes ou en licenciant des employés.13 Comme je l’ai montré, la seule explication logique de cette activité de rachat est que la rémunération à base d’actions qui représente la grande majorité de la rémunération des dirigeants d’entreprise les incite à manipuler les cours des actions de leur entreprise, ce qui aggrave la situation de la plupart des Américains. 14
Tableau 2: Les 25 rachats d’actions les plus importants parmi les sociétés basées aux États-Unis, 2006-2015, montrant les rachats d’actions (BB) et les dividendes en espèces (DV)
Source: calculé à partir des données téléchargées de la base de données Compustat de Standard & Poor’s.
L’accent mis par Weinstein-Teitelbaum sur une conception d’interface graphique pour étendre l’offre de doctorats en S&E ignore les transformations de la gouvernance d’entreprise et des relations de travail qui ont décimé l’emploi de carrière pour ce groupe de travailleurs au cours des trois dernières décennies. Dans le même temps, la canalisation de billions de dollars de valeur créés dans les sociétés non financières américaines vers le secteur financier a ouvert des emplois à Wall Street qui peuvent fournir des bonas de revenu rapide aux membres hautement qualifiés de la population active américaine, dont beaucoup pourraient autrement poursuivi des carrières en S&E. Parmi les plus riches de ces acteurs de Wall Street se trouvent les prédateurs des entreprises – connus sous le nom euphémiste d’activistes de hedge funds »- qui ont des milliards de dollars d’actifs sous gestion avec lesquels ils peuvent attaquer les entreprises pour augmenter leurs cours boursiers grâce à la mise en œuvre de downsize-and- distribuer »des régimes d’allocation et, même si cela prend quelques années, vider le stock pour d’énormes gains15.
Dans le cas d’Apple, nous avons montré comment Carl Icahn a utilisé sa richesse, sa visibilité, son battage médiatique et son influence pour prendre 2 milliards de dollars de gains boursiers en achetant 3,6 milliards de dollars d’actions Apple à l’été 2013 et en les vendant à l’hiver de 2016, même s’il n’a absolument rien apporté à Apple en tant qu’entreprise créatrice de valeur.16 Le PDG d’Apple, Tim Cook et son conseil d’administration (qui comprend l’ancien vice-président américain Al Gore) ont aidé Icahn à transformer sa fortune accumulée en une fortune encore plus importante en Apple a racheté 45 milliards de dollars d’actions en 2014 et 36 milliards de dollars en 2015, de loin les deux plus importants rachats d’actions en un an de toute entreprise de l’histoire. Imaginez les capacités de recherche d’entreprise dans lesquelles Apple aurait pu investir et les doctorats en S&E que la société aurait pu utiliser si elle avait cherché des moyens productifs d’utiliser même une fraction des sommes presque inimaginables qu’elle a gaspillées pour les rachats.17 De 2011 à la première trimestre 2017, Apple a dépensé 144 milliards de dollars en rachats et 51 milliards de dollars en dividendes dans le cadre de ce qu’elle appelle son programme Capital Return. Mais l’entreprise restitue du capital aux actionnaires qui n’ont rien donné à l’entreprise en premier lieu; le seul moment de son histoire où Apple a levé des fonds sur le marché boursier public a été de 97 millions de dollars lors de son introduction en bourse en 1980. 18
Un certain nombre de militants de fonds spéculatifs »- Nelson Peltz de Trian, Daniel Loeb de Third Point et William Ackman de Pershing Square sont parmi les plus éminents – ont pu investir un ou deux milliards de dollars pour acheter de petites participations dans des marchés très importants. les entreprises de haute technologie et, avec les votes par procuration des fonds de pension, des fonds communs de placement et des dotations, ont pu faire pression sur les entreprises, souvent en plaçant leurs représentants au conseil d’administration, pour mettre en place des régimes de réduction des effectifs et de distribution dans l’intérêt de maximiser la valeur pour les actionnaires. »19 À l’été 2013, Trian Fund Management de Nelson Peltz a acheté des actions de DuPont pour 1,3 milliard de dollars, soit 2,2% des actions en circulation. En mai 2015, Peltz a perdu un combat par procuration pour mettre quatre de ses candidats au conseil d’administration de DuPont, mais en octobre 2015, Ellen Kullman, PDG de DuPont, qui s’était opposé à Peltz, a démissionné, et la nouvelle direction a commencé à mettre en œuvre les plans de Peltz pour réduire les coûts et affecter les finances. objectifs, à faire dans le cadre d’une fusion avec Dow Chemical, qui était tombé entre les mains d’un autre prédateur d’entreprise Daniel Loeb. Pendant ce temps, en octobre 2015, Peltz a acheté 0,8% des actions de General Electric (GE) et a commencé à faire pression sur une autre société de haute technologie emblématique pour réduire les coûts et augmenter le cours de ses actions. GE était déjà une entreprise financiarisée qui avait effectué 52 milliards de dollars de rachats au cours de la décennie 2006-2015 (voir le tableau 2) – une somme d’argent considérable dans le but de manipuler son cours boursier. Répondant sans aucun doute à la pression supplémentaire de Peltz, en 2016, GE, avec des bénéfices de 8,0 milliards de dollars, a versé 8,5 milliards de dollars en dividendes et dépensé 22,0 milliards de dollars supplémentaires en rachats. Cette financiarisation des sociétés américaines de haute technologie sape, entre autres, l’emploi des docteurs en S&E.
Nous avons besoin de recherches sur ce sujet pour quantifier ses impacts. Je soutiens cependant qu’un tel programme de recherche doit se concentrer sur les transformations des régimes de gouvernement d’entreprise et les relations de travail. S’appuyant sur la notion d’économiste néoclassique d’un taux de salaire naturel »déterminée par l’interaction de l’offre et de la demande, Weinstein, un mathématicien, et Teitelbaum, un démographe, ont raté les transformations de la gouvernance d’entreprise et des relations de travail qui ont marqué la fin des années 1980 et le début des années 1990 – et au-delà – et, par conséquent, à mon avis, je n’ai pas compris la fortune changeante des docteurs en S&E dans la nouvelle économie commercialisée, mondialisée et financiarisée. Étant donné la prédominance de ce que j’ai appelé le mythe de l’économie de marché »20 dans les processus de réflexion des économistes, Weinstein et Teitelbaum n’étaient nullement les seuls à se concentrer à tort sur l’offre et la demande sur le marché du travail doctoral sans reconnaître la centralité de la gouvernance d’entreprise et les relations de travail dans la détermination des gains et des perspectives de carrière des docteurs en S&E. Il est temps pour une nouvelle réflexion économique sur ces questions cruciales.
Grand Nord, voir par une balade à chiens de traineaux
Grand Nord, voir par une balade à chiens de traineaux
La tête du traîneau à chiens peut être une rencontre spéciale. Le plaisir hivernal pour Deb et Bob Kreider signifie connecter leurs doux huskies sibériens et se présenter sur les sentiers de randonnée enneigés qui serpentent autour de leur résidence boisée de plus de 100 acres dans le Vermontville. Avec toutes les longues saisons d’hiver et beaucoup de neige des plus hautes altitudes, les Adirondacks sont une zone idéale pour le traîneau à chiens. «C’est Tekna», affirme Deb, en tendant un husky sibérien en petit qui offre un coup de langue ardent. Sous son bras, chiens de traineaux un petit muscle boule de poils se tend vers la liberté et se met à renifler le sol à la folie. Deb a amené Tekna à votre école d’obéissance standard du Clinton State Dog Club pour démarrer le processus de coaching complet que les chiots de traîneau doivent expérimenter. À proximité, un minuscule Lhassa apso à plumes stressé à sa laisse avec un chiot setter irlandais fauve ne négociera pas plus bas. Tekna fait de son mieux pour s’asseoir et rester et se reposer à la demande, mais il est très clair qu’elle préférerait se tortiller et renifler. «Uh-oh ouais, pot de crack», déclare Deb, faisant sauter le petit chiot et se dépêchant de sortir du bâtiment. Dehors, bien que Tekna se soulage dans la brousse, ses tantes Sequoia, Wind et Buddha, expertes en traîneaux, tiennent avec considération dans la camionnette de la maison. Tous seront bientôt préparés pour la luge d’hiver. «Les huskies sibériens adorent courir», dit Deb, «et ce qu’ils aiment vraiment le plus, c’est toujours tirer le traîneau. Les chiens de compagnie sont attachés les uns aux autres par une ligne de gang, mais il n’y a pas de rênes organisées avec l’homme qui conduit la charrette. «C’est juste une gestion saine», affirme Deb. Cependant, ce n’est pas seulement une glisse joyeuse dans un pays des merveilles de neige et d’aiguilles de pin. Parfois, avoue-t-elle, le traîneau à chiens peut devenir terrifiant. Plus précisément si vous n’êtes pas au courant de la planète, du chemin et des conditions météorologiques variables. «Mis à part les problèmes typiques des mois d’hiver de la région du Nord concernant les engelures et l’hypothermie, un pack de glace et de courtes chutes de neige, les motoneiges peuvent présenter des risques», dit-elle. «Nous avons des amis proches dont les équipages ont déjà été frappés par des motoneigistes en courant. Si les automobilistes de traîneaux n’ont pas un très bon pouvoir sur leur personnel, des accidents peuvent survenir. «Le principe numéro 1 du traîneau à chiens», déclare Deb, «n’oublie en aucun cas le traîneau. Un équipage réduit qui planera le long du chemin sans avoir de conducteur de véhicule se tordra et se fera du mal. » Deb a montré que les chiots étaient un passe-temps alors qu’elle était en fait une jeune fille dans le New Jersey, et elle est allée une fois au Westminster Puppy Show avec sa mère. Là, elle a remarqué une dame présentant un husky sibérien nommé Sierra Cinnar qui a remporté le prix Best in Demonstrate, la toute première fois pour la race de chien. Des années plus tard, après avoir exploré, elle aimait les Adirondacks et déménagé du New Jersey avec Bob, elle est allée aux chenils Innisfree à Chateaugay, dans lesquels cette fille identique, Trish Kanzler, et les membres de sa famille, élevaient constamment des huskies sibériens. À Innisfree, Deb a adoré les jeunes chiots husky et a essayé de conduire sur un traîneau à chiens la toute première fois. «J’étais accro», dit-elle. Accro au traîneau à chiens, mais aussi autour de la race particulière de chien. En peu de temps, Deb a abandonné son travail normal en tant qu’instructeur de langue anglaise (Bob reste un consultant en informatique) pour travailler comme toiletteur. À l’avenir, le couple a ouvert le chenil de pension The Dapper-Dog et a commencé à élever des huskies sibériens. «Depuis que nous avons obtenu notre premier husky sibérien en 1999, nous avons élevé 3 portées, soit un total de 11 chiots.»
Votre identité sur internet
Lorsque le pionnier des médias de masse électroniques et visionnaire Jaron Lanier pointe son nouveau livre, seo Who Owns The Future ?, il regroupe le « Who » et tire une flèche vers le nom du lecteur, réalisant ainsi un haïku visible de son message : « Tout le monde, par titre, génère beaucoup de revenus pour les sociétés de votre Internet car elles utilisent nos informations privées pour un marketing spécifique ou les vendent à des tiers pour une utilisation future. Il aimerait savoir ce que nous sommes susceptibles de faire à ce sujet. « Peu de gens comprennent à quel point ils peuvent être suivis et espionnés pour que cette nouvelle forme de monnaie puisse être créée », a déclaré Lanier. Cette monnaie est notre vie personnelle. Dans son discours du troisième mai 2013, à la Powerhouse Arena de Brooklyn, Lanier a souligné que les sites de réseaux sociaux (tels que Youtube, Facebook ou Twitter, les moteurs de recherche et LinkedIn) n’ont pas seulement changé la façon dont vous interagissez socialement et échangez des idées, ils ont également se sont avérés être des machines de détails. Beaucoup voient que ces entreprises nous ont simplement fourni de nouvelles méthodes totalement gratuites pour rester en contact avec des amis ou favoriser la connectivité professionnelle, mais la réalité est que cette commodité a un coût énorme : la collecte d’informations personnelles. Lanier ainsi que d’autres pensent que le passage rapide à la consolidation de l’information technologique et à l’évaluation des identités des citoyens, combiné à l’énorme richesse économique des entreprises, a de grandes implications pour la vie privée des individus et peut également influencer considérablement l’avenir de notre système gouvernemental. À l’intérieur d’un récent projet d’étude explorant les implications de cette nouvelle réalité sur les gens, Alessandro Acquisti, un professeur qui étudie l’économie d’entreprise de la vie privée à Carnegie Mellon, a démontré à quel point il est simple pour les technologies électroniques de briser les murs autour de nos modes de vie individuels. En utilisant uniquement la photographie d’une personne non identifiée, un logiciel de réputation de visage accessible au public (aucun endroit aussi sophistiqué que Facebook, et al.), un traitement dispersé et des connaissances provenant de sites de médias sociaux, il pouvait facilement obtenir des détails tels que des numéros de sécurité interpersonnels, des numéros de permis de conduire. , et la cote de crédit et les numéros de carte de crédit-suffisamment pour consacrer la fraude d’identité. Nos personnalités sur Internet et nos modes de vie traditionnels se sont combinés, avec ce que dit Acquisti deviendra rapidement une « réalité augmentée » fluide. Dans sa dernière étude, Silent Audience: The Development of Personal privacy and Disclosure on Facebook, Acquisti et d’autres auteurs ont découvert que de plus en plus de personnes essaient plus que jamais tout ce qu’elles peuvent sur Internet pour garder leurs informations privées personnelles. Cependant, le niveau de divulgation des informations personnelles ne cesse d’augmenter en raison de l’exploration stratégique de nos sites de réseautage social en ligne. L’évaluation des données sur vous-même et sur nos relations individuelles permet aux entreprises de médias sociaux de calculer le comportement de nos propres amis dans la vie réelle, en nous plaçant dans des groupes qu’ils peuvent à leur tour utiliser pour gagner de l’argent. De plus, Acquisti a découvert une augmentation du nombre de ce qu’il appelle les « auditeurs silencieux » : les sociétés de réseaux sociaux elles-mêmes et les applications tierces. Les configurations de confidentialité et les pratiques de protection des informations, destinées à nous protéger d’une brèche dans le système, n’ont que peu d’importance lorsque ce sont les sociétés de réseaux sociaux elles-mêmes qui recherchent et collectent des données. Alors que la possibilité la plus apparente de cette violation de la protection individuelle est de perdre notre argent au profit de voleurs, d’autres informations privées nous sont également extraites. Le 19 mai, Lesley Stahl, rendant compte de l’utilisation des applications de reconnaissance faciale pendant 60 Minutes, a interviewé Joseph Atick, un pionnier de la technologie. Il a qualifié l’utilisation de la reconnaissance faciale par le commerce pour construire des banques d’informations d’empreintes faciales (représentations numériques uniques des visages des peuples) de « bête », déclarant : « Big Brother n’est plus un grand gouvernement ; Large Brother est une très grande entreprise. Il n’y a pas de réglementation ou de restriction sur ce type de surveillance, et il pense que son utilisation en Amérique devrait être régie comme en Europe, où le consentement d’une personne est requis pour recueillir son empreinte faciale. Atick a déclaré: «Mon identification, mon empreinte faciale devraient être reconnues comme ma maison. Mon visage est aussi important que mes dossiers monétaires, que mes documents de santé. C’est très privé pour moi. Les entreprises qui veulent en savoir plus sur nous tentent maintenant de collecter des informations sur nous-mêmes biologiques pour documenter correctement nos identités. Notre visage et son expression ne sont pas seulement une fenêtre sur la psychologie, ils sont le résultat de notre cadre essentiel le plus important : notre génome, modèle héréditaire du corps. Ces détails déterminants de l’unicité de l’être humain sont actuellement très recherchés après les détails.
Les USA ont perdu l’Aghanistan
L’assaut des talibans contre l’Afghanistan et la gestion officielle du pays en quelques jours nécessitent une évaluation des éléments qui s’est très mal passé. Les événements et la dynamique qui ont conduit à ces échecs massifs des États-Unis, du gouvernement fédéral et de l’armée afghans démontrent clairement à quel point il avait été incorrect d’entendre des experts et des « experts afghans » qui, il y a deux semaines à peine, ont fourni leurs évaluations pour le l’avenir de l’Afghanistan selon l’espoir et la confiance plutôt que sur la vérité et les réalités du terrain. L’Afghanistan est en état de combat depuis 45 ans. Dans les années 1980, l’Union soviétique a pénétré l’Afghanistan, tué des millions de citoyens afghans et créé la meilleure situation de réfugiés des occasions contemporaines. Au cours des deux dernières décennies, les États-Unis ont pénétré et occupé l’Afghanistan, investi plus d’un billion de dollars et participé à une bataille qui a anéanti plus de 170 000 résidents afghans. En tête de liste des raisons de cet affrontement sans fin figuraient les invasions et les occupations étrangères par des « infidèles » combinées à de graves clivages ethnolinguistiques qui ont alimenté conjointement une méfiance importante parmi de larges pans de la population du pays. Les groupes terroristes et les intrus locaux ont également contribué directement et en fin de compte à l’instabilité et au conflit afghans. Pour la période que vous avez passée aux États-Unis en Afghanistan, nous pourrions néanmoins ajouter que l’incertitude quant à ce que nous espérions accomplir là-bas, ainsi qu’une technique en constante évolution, s’ajoutant à une grave idée fausse sur la population, la politique et la culture de l’Afghanistan sont les principaux éléments à prendre en compte. ce qui s’est finalement passé. Le retrait des États-Unis a déjà créé ce qui va être des changements à long terme et puissants pour l’Afghanistan ainsi que pour toute la région du sud et du centre-oriental. Le choix de partir reflète finalement un dysfonctionnement en profondeur provoqué par des réalités historiques et interpersonnelles, de mauvaises options gouvernementales et une mauvaise technique. De nombreux aspects jouent ici un rôle, mais cinq sont remarqués. Initialement, 1979 a observé de puissantes modifications dans les organisations islamiques radicales. Cela était en partie responsable d’une année civile très difficile pour les États-Unis, l’Afghanistan et d’autres. En novembre, la prise de contrôle de l’ambassade des États-Unis à Téhéran, en Iran, a ruiné les relations de l’Amérique avec son allié le plus proche dans la région. Plus tard au cours de ces 30 jours, des étudiants islamiques à Islamabad, au Pakistan, ont incendié l’ambassade américaine, tuant quatre personnes. Plus tôt, en février, l’ambassadeur des États-Unis en Afghanistan, Adolph « Spike » Dubs, avait été kidnappé et anéanti à Kaboul. Enfin, en décembre, les Soviétiques ont envahi l’Afghanistan pour étayer sa routine marxiste fantoche vacillante, apparemment sous la doctrine Brejnev qui était basée sur l’idée que l’Union soviétique avait l’obligation de renforcer tout régime marxiste contigu qui devenait poussé. Soudainement, en l’espace de deux mois, des islamistes en colère et des marxistes soviétiques professionnels ont bouleversé les espoirs des États-Unis pour cette région du monde. Les États-Unis sous les présidents Jimmy Carter et Ronald Reagan ont réussi à convertir l’occupation soviétique de l’Afghanistan en leur propre Vietnam – un objectif majeur des États-Unis. Les services militaires américains ont considérablement aidé ceux que Reagan appelait les combattants de l’indépendance afghane. L’aide américaine à ces moudjahidines – à l’époque le plus grand système d’aide secrète pour une équipe de l’histoire – était presque uniquement dispersée par la Direction du renseignement interservices pakistanais (ISI). Le Pakistan a également formé bon nombre de ces organisations au milieu des années 70. La gestion de l’aide avait également pour objectif que les Pakistanais subissent un impact substantiel sur les moudjahidin à un moment donné lorsque l’islamisme montait, de sorte que l’Afghanistan est devenu le premier champ de bataille idéologique entre le marxisme et l’islamisme. Peu de temps après que l’URSS se soit retirée du nord du ruisseau Amou-Daria en 1989, les États-Unis mettent fin à la plupart de leurs relations avec l’Afghanistan ainsi qu’avec le Pakistan. (Le chef Ronald Reagan et le président Mikhaïl Gorbatchev de l’Union soviétique ont inauguré les accords de Genève de 1988, et le chef George HW Bush a invoqué l’amendement Pressler en 1990, qui a introduit ces occasions.) Au cours de ses dix années d’aide aux moudjahidines, les États-Unis n’a absolument rien découvert concernant les subtilités du peuple, de l’histoire ou de la culture de l’Afghanistan – un problème qui empoisonnera encore la plupart de nos actions pendant les 20 ans que les États-Unis ont mis en Afghanistan. Deuxièmement, alors que les communistes afghans commençaient à disparaître, les moudjahidines, dont beaucoup étaient des islamistes extrémistes et sont finalement devenus la base des talibans au début des années 1990, restaient en phase intermédiaire. Cependant, les clivages ethniques, tribaux, linguistiques et religieux importants et souvent renforcés qui séparent la culture afghane sont devenus beaucoup plus substantiels. Mais les États-Unis n’étaient fondamentalement pas conscients de leur importance. Les Pachtounes, qui résident dans le sud et l’est de l’Afghanistan, ont cherché leurs frères culturels au Pakistan voisin ; des haut-parleurs majoritairement chiites hazara et dari/farsi de l’ouest de l’Afghanistan se sont tournés vers l’Iran ; et les Afghans tadjiks, ouzbeks et turkmènes du nord recherchaient l’aide des nations voisines de l’article soviétique. Ces divisions n’étaient que la suggestion de l’iceberg dans le mélange identitaire compliqué qui secoue constamment l’Afghanistan que les États-Unis n’ont jamais compris.
De la Turquie à Tel Aviv
Il se passe à peine une semaine sans barbillon ou insulte échangée entre la Turquie et Israël. Le président turc Recep Tayyip Erdogan assassine publiquement Israël presque quotidiennement pour susciter un soutien politique interne, affirmant par exemple que le traitement d’Israël de Gaza dépasse la brutalité du régime nazi. Les choses ne se sont pas toujours passées ainsi. Les années 1990 et la plupart des années 2000 ont vu des liens diplomatiques et politiques chaleureux entre Israël et la Turquie. Mais ces jours-ci, il semble y avoir un blocage diplomatique.
Malgré cela, malgré une rhétorique sévère et une suspension de l’engagement diplomatique de haut niveau, le commerce israélo-turc a augmenté de 19% depuis 2009, tandis que le commerce extérieur global de la Turquie pour la même période a augmenté de 11%. Étant donné que peu de pays ayant des liens commerciaux solides intensifient les conflits au point d’entrer en guerre les uns avec les autres, les liens économiques israélo-turcs peuvent signaler les perspectives d’une amélioration des relations bilatérales. Les perspectives économiques et politiques restant sombres dans tout le Moyen-Orient, les deux nations ont plus de raisons que jamais de résoudre leurs divergences politiques – ou du moins de les séparer des relations économiques.
Les relations diplomatiques entre la Turquie et Israël ont commencé à se détériorer lors du Forum économique mondial de janvier 2009. Lors d’un débat houleux avec le président israélien Shimon Peres sur l’offensive israélienne à Gaza, le Premier ministre Erdogan a accusé Israël de barbarie, disant à Peres, Quand il s’agit de tuer, vous savez très bien comment tuer. » En mai 2010, des commandos israéliens ont attaqué le Mavi Marmara, un navire d’aide humanitaire turc qui a tenté de violer le blocus israélien sur la bande de Gaza, tuant neuf militants turcs à bord et incitant Ankara à retirer son ambassadeur en Israël. Les relations se sont détériorées en août 2013 lorsque Erdogan a accusé Israël d’être complice du coup d’État militaire qui a renversé l’ancien président égyptien Mohamed Morsi. En janvier 2015, Erdogan a déclaré que le Premier ministre israélien Benjamin Netanyahu n’avait pas le droit de participer à une marche antiterroriste à Paris après les attaques de Charlie Hebdo compte tenu des activités d’Israël à Gaza. Le soutien d’Erdogan au Hamas a également freiné les relations entre les deux pays, et il n’a fait que peu d’efforts pour faire amende honorable.
Erdogan, cependant, n’a pas toujours été aussi conflictuel. En tant que Premier ministre, il a soutenu les efforts diplomatiques de la Turquie pour servir de médiateur pour la paix au Moyen-Orient. » Lors d’une visite en 2005 avec l’ancien Premier ministre israélien Ariel Sharon à Jérusalem, Erdogan a déclaré qu’il était venu pour contribuer au processus de paix entre Israël et les Palestiniens. Erdogan a accueilli l’ancien Premier ministre israélien Ehud Olmert à sa résidence en 2008, dans l’espoir de négocier la paix entre Israël et la Syrie. Erdogan a vu la décision d’Olmert de lancer l’opération Plomb durci quelques jours seulement après la réunion, puis comme une trahison, en particulier après avoir supposé qu’Olmert lui avait donné le feu vert pour indiquer à Israël qu’il était prêt à entamer des discussions directes avec la Syrie. Malgré cela, Erdogan a tenté de réparer les clôtures six mois plus tard en soutenant un projet qui demanderait à Israël de mener un projet de déminage le long de la frontière turco-syrienne – malgré la résistance du Parlement.
Bien qu’il ne reste que peu de bonne volonté dans l’un ou l’autre pays, le printemps arabe a incité les deux nations à réévaluer leurs relations. En 2013, Netanyahu a répondu à la demande du président américain Barack Obama de réparer les clôtures et a présenté des excuses à la Turquie. Par la suite, Israël a accepté de verser une indemnité aux familles des neuf militants tués pendant l’aide. Depuis le raid de la flottille, Israël a également accepté la levée partielle du blocus de Gaza, rapprochant ainsi les deux États de la réconciliation dans une région de plus en plus instable.
Certes, il subsiste une grande méfiance en Israël envers le gouvernement turc, et Erdogan en particulier. Le cabinet de Netanyahu en a assez des remarques incendiaires d’Erdogan; les commentaires anti-israéliens du président turc après les attentats de Charlie Hebdo, par exemple, ont incité le ministre israélien des Affaires étrangères, Avigdor Lieberman, à appeler Erdogan un tyran antisémite du quartier. » Netanyahu craint que si un accord est conclu sur la question palestinienne, Erdogan l’utilisera pour des gains intérieurs. Après les excuses de Netanyahu pour le raid de la flottille de mai 2010, un certain nombre de journaux ont publié des titres qui lisaient qu’Erdogan avait fait excuser Israël. » La vérité, bien sûr, est que, grâce à la médiation d’Obama, Israël a présenté des excuses, que la Turquie a acceptées – et non extraites. En retour, cela a soulevé des questions en Israël sur le véritable intérêt de la Turquie à réparer la relation.
De meilleurs liens avec Israël sont particulièrement attrayants pour la Turquie maintenant qu’elle a brûlé ses ponts avec le monde arabe. La politique zéro problème d’Ankara avec ses voisins a fait en sorte que la Turquie n’a pas d’ambassadeurs au Caire, à Damas ou à Tripoli. Il n’a nommé un ambassadeur à Bagdad qu’après le remplacement de l’ancien Premier ministre irakien Nouri al-Maliki par Haider al-Abadi en septembre 2014. La Syrie a suspendu son accord de libre-échange avec la Turquie en décembre 2011, lorsque Bachar al-Assad est devenu le principal ennemi d’Ankara. Depuis lors, le commerce entre la Syrie et la Turquie est tombé à un demi-milliard USD en 2014, contre près de deux milliards USD en 2011.
En Égypte, le refus de la Turquie de reconnaître Abdel Fattah al-Sissi comme président de l’Égypte a également nui aux intérêts économiques d’Ankara. Par exemple, les exportations turques vers l’Égypte ont diminué de 10% entre 2012 et 2014. En outre, l’Égypte n’a pas renouvelé l’accord de ferry-boat roll-on / roll-off, une route commerciale qui contourne le passage coûteux à travers le canal de Suez, après son expiration. Avril, entravant le transport de marchandises entre les ports turcs et Alexandrie. Cette décision empêche les produits turcs d’arriver sur les marchés lucratifs d’Arabie saoudite et des pays du Golfe. Cet accord a également permis aux entreprises turques de contourner le territoire syrien contrôlé par l’État islamique (également appelé ISIS) tout en contournant le canal de Suez et donc en réduisant les coûts de transport.
Les relations turques en Libye sont également dans un état dramatique. Le Premier ministre libyen Abdullah al-Thani a accusé la Turquie d’armer les auxiliaires de l’Etat islamique en Libye, chassant les entreprises turques et les expatriés du pays. En plus de cela, la reconnaissance par Ankara du Congrès général national contrôlé par les islamistes sur le gouvernement al-Thani démocratiquement élu a jeté une ombre sur les intérêts commerciaux turcs dans de grandes parties de la nation.
L’agression de la Russie en Ukraine a également pesé sur la Turquie. Malgré la position modérée de la Turquie sur l’annexion de la Crimée par la Russie et l’argument selon lequel un axe économique russo-turc émerge, les exportations turques vers la Russie ont chuté de 15% entre 2013 et 2014. La dépréciation du rouble par rapport au dollar américain a également créé des problèmes pour la Russie en conditions de paiement de ses exportations turques qui sont devenues par la suite plus chères. Les exportations turques vers l’Ukraine ont diminué de 21% au cours de la même période, tandis que le tourisme russe et ukrainien, principales sources de revenus pour la Turquie, continue de baisser.
Israël n’est peut-être pas le plus grand partenaire commercial de la Turquie, mais c’est son partenaire le plus équilibré. La Turquie bénéficie même de flux commerciaux avec Israël, recevant 3 milliards de dollars de marchandises importées tout en exportant le même montant financier de marchandises turques vers Israël en 2014 – un signe de parité financière rarement vu avec les autres partenaires commerciaux d’Ankara. La même année, la Turquie a exporté pour 6 milliards de dollars de marchandises vers la Russie, tout en important 25 milliards de dollars de marchandises, ce qui a entraîné un énorme déficit commercial. La Turquie redevient une destination de voyage préférée des voyageurs israéliens. Selon l’Association des agences de voyages turques (TURSAB), le nombre d’Israéliens voyageant en Turquie a augmenté de 125%, passant de 83 740 à 188 608 entre 2012 et 2014. Certes, cela est encore loin du demi-million de touristes israéliens qui ont afflué en Turquie. en 2008, mais est un signe prometteur d’une reprise de l’économie touristique.
Il faut cependant se méfier de trop d’optimisme. Les relations économiques israélo-turques peuvent être apparemment à l’abri de la politique, mais l’impasse diplomatique des nations pourrait encore entraver la croissance future, surtout si la méfiance et la rhétorique dure entre les deux pays persistent. Néanmoins, alors que le volume des échanges bilatéraux continue d’augmenter, les intérêts entrepreneuriaux isoleront dans une certaine mesure les liens économiques des problèmes politiques. Erdogan n’a pas tardé à annoncer que la Turquie suspendrait ses liens militaires et commerciaux »avec Israël après l’incident de Mavi Marmara. Cependant, une déclaration de lui a suivi ce même jour annonçant que la Turquie n’imposerait pas de sanctions commerciales après tout. Erdogan est susceptible d’avoir reculé de son plan d’origine après les pressions du monde des affaires, mais rien ne promet qu’il fera des concessions similaires à l’avenir.
Et, pour l’instant, les relations diplomatiques entre Israël et la Turquie ne montrent aucun signe d’amélioration, sauf pour leur intérêt mutuel d’empêcher la politique d’interférer avec les affaires. Le rétablissement des relations diplomatiques israélo-turques jusqu’au niveau de coopération au milieu des années 1990 ne sera possible que si la réconciliation est réalisée sur le front palestinien lors des offensives de Gaza en 2009 et 2014, ainsi que la mort de neuf militants turcs sur le Mavi Marmara, a renforcé les sympathies turques envers les Palestiniens . Compte tenu de la volonté d’Erdogan de recourir à la rhétorique anti-israélienne à des fins de politique intérieure, peu a été accompli depuis 2009 pour faire avancer le dialogue diplomatique entre Ankara et Jérusalem.
Les perspectives économiques pour le Moyen-Orient restent toutefois sombres, ce qui rend plausible au moins une paix commerciale durable entre Israël et la Turquie. Finalement, la confiance mutuelle créée par les relations commerciales pourrait aider les deux pays à trouver une assise économique et politique dans une région tumultueuse, ouvrir la porte à un futur compromis de paix dans le cadre de la crise israélo-palestinienne et donner à Ankara l’occasion de relever les défis de sécurité régionale.
Pilote de chasse: une mutation par les nanotechnologies
Imaginez un groupe de volontaires, leurs poitrines équipées de capteurs biophysiques, se préparant pour un objectif dans un immeuble de bureaux militaire équipé d’appareils photo numériques et de microphones pour capturer tout ce qu’ils font réellement. «Nous voulons mettre en place un laboratoire vivant dans lequel nous pouvons vraiment percevoir les individus de manière omniprésente, en permanence, pendant de longues périodes de votre temps. L’objectif est de faire de notre mieux pour quantifier la personne, l’environnement et comment l’individu agit dans l’environnement », m’a dit l’année dernière Justin Brooks, scientifique au Army Research Lab, ou ARL. La pression environnementale nécessite également une génération suivante de dispositifs portables pour aider les avions de combat de demain à comprendre leurs pilotes. Les avions de combat mma contemporains exposent le corps humain à des causes physiques qui ne sont pourtant pas entièrement comprises. En 2010, plusieurs pilotes d’avions F-22 ont noté des épisodes en vol de malentendus, d’essoufflement et de modifications de la couleur de la peau, tous signes et symptômes d’hypoxie ou de réduction d’O2 dans la circulation sanguine. La raison principale était la vitesse. « Je dessine un G dans l’avion, le sang a tendance à s’accumuler dans quelques-unes de ces zones centrées du corps, comme les bras, les cuisses et les jambes », a déclaré Lloyd Tripp, responsable de programme logiciel pour la physiologie et la toxicologie de l’aérospatiale à la 711e aile de performance des êtres humains du laboratoire d’étude de la pression atmosphérique. Deux ans plus tard, l’Air Pressure a commencé à fixer des capteurs dans les casques des pilotes de F-22 pour lire le degré d’oxygène dans le sang de leur artère temporale. À peu près à la même époque, l’armée russe constatait de la confusion et des changements de couleur de peau parmi les pilotes d’avions qui attiraient des causes G élevées, a déclaré Tripp. Manquant des mêmes technologies de capteurs, les commandants européens ont commencé à donner aux pilotes d’avion des transfusions sanguines avant leurs vols aériens. Cela n’a pas fonctionné. Les pilotes d’avion européens volant à des vitesses supersoniques ont connu l’hypoxie à de meilleurs prix. « Ils ne l’ont pas admis pendant plusieurs années », a-t-il déclaré. Des diagnostics corrects ont permis à l’US Air Force de lire le problème et d’améliorer les performances globales. Au-delà des casques, les experts de l’Air Force travaillent sur ce qu’ils contactent un programme complet de surveillance cognitive. Cela signifie explorer quelles technologies d’indicateurs fonctionnent efficacement à quelles fins, et quels signaux peuvent être détectés sans interférer ou déranger l’aviateur – c’est-à-dire, après tout, vol en avion de chasse censé être un objectif de combat. Selon tout ce que vous essayez de déterminer, ont-ils découvert, vous n’aurez peut-être plus besoin d’un véritable capteur physique sur le corps. Vous pouvez désormais collecter des informations de santé internes extrêmement intimes et importantes avec des caméras. Prenez l’oxygénation cérébrale, la quantité d’oxygène dans les tissus de portions spécifiques de l’esprit d’un pilote. Vous pouvez déterminer ce signal biophysique clé en projetant un éclairage infrarouge sur le front, car le sang avant la tête est à peu près aussi oxygéné que le tissu cérébral derrière la paroi de la tête. « Si je fais briller cet éclairage infrarouge à travers la peau, je peux voir la quantité d’O2 dans le sang dans ce tissu. Au fur et à mesure que j’améliore la pression G, je diminue la quantité d’oxygène que j’ai ici, laquelle réduction de l’o2 est immédiatement corrélée et revient à une réduction de la fonction cognitive », a déclaré David Christensen, superviseur de profil avec la 711e aile de performance globale des êtres humains. Un autre projet d’étude a mis en place un simple objectif d’appareil photo numérique pour ordinateur portable pour détecter si l’hémoglobine d’une personne est riche en oxygène, ce qui rend le sang un peu plus rouge, ou désoxygéné, c’est-à-dire légèrement plus bleu. Essentiellement, cela vous permet de lire la fréquence cardiaque d’une personne à partir d’une plage. Même votre respiration en dit long sur votre état physique. « Le rapport entre l’oxygène et le dioxyde de carbone peut changer lorsque je suis de plus en plus épuisé. C’est important car, comme je suis épuisé, il me faut environ vingt-quatre heures pour récupérer complètement à 100% », a déclaré Christensen. « Cette fatigue est essentielle simplement parce que mes muscles ne peuvent pas forcer pour repousser la circulation sanguine vers ma tête, donc la probabilité que je perde conscience augmente considérablement. »
Les médications de modifications pyschologiques
Les hallucinogènes sont vraiment une série de drogues psychoactives qui produisent des modifications psychologiques à court terme qui incluent une perception sensorielle déformée et des revendications oniriques de conscience. Depuis des siècles, les substances hallucinogènes sont déjà associées à une expérience mystique profonde ; le Rigveda mentionne un composé d’herbes appelé Soma, qui, une fois ingéré, créait de brillantes visions du paradis. La plupart des chercheurs pensent que le médicament était un hallucinogène, bien que la plante précise ne soit pas identifiée à l’époque moderne. Les mystères d’Eleusis, un ancien rituel grec qui a persisté pendant près de 2 000 ans, étaient également centrés sur une boisson, connue sous le nom de kykeon, qui était capable de produire des états de conscience altérés. Aux Amériques, les Aztèques utilisaient une variété de substances hallucinogènes dans des rituels spirituels et sociaux. Dans les années 50 et 60, les hallucinogènes ont fait l’objet d’importantes études technologiques. La recherche la plus connue est probablement celle connue sous le nom de Great Friday Try things out, dans laquelle 20 étudiants en théologie ont reçu de la psilocybine hallucinogène ou un placebo lors d’un service de la chapelle Great Fri. Les étudiants qui ont reçu de la psilocybine ont noté avoir eu des rencontres religieuses extrêmes. Le lien évident entre la consommation d’hallucinogènes et la rencontre spirituelle a conduit certains chercheurs à rechercher les utilisations possibles des hallucinogènes comme remède aux problèmes psychiatriques tels que la dépendance, l’anxiété et les troubles dépressifs. L’utilisation d’hallucinogènes dans la recherche scientifique s’est accompagnée de leur prolifération au sein de la contre-culture en tant que médicaments de loisir. L’usage récréatif généralisé d’hallucinogènes dans la culture « hippie » a provoqué une réaction culturelle et politique qui a finalement conduit à la criminalisation de ces drogues en vertu de la Managed Substances Act de 1970 ; ces lois ont également eu pour effet de contrôler la plupart des recherches technologiques concernant les hallucinogènes. Après une longue absence, les hallucinogènes ont commencé à réapparaître dans les études technologiques dans le retard des années 1990. Les toutes nouvelles études, qui ont enquêté sur les utilisations curatives des hallucinogènes pour une variété de conditions, ont été menées avec une meilleure rigueur méthodologique et une meilleure attention à la sécurité individuelle que leurs prédécesseurs dans les années 1960. La majorité des études ont été de petite taille, car les hallucinogènes sont encore étroitement contrôlés, ainsi que le You.S. Le gouvernement fédéral n’identifie aucune utilisation légitime des soins de santé et n’offrira donc aucun financement pour la recherche. Mais l’étude scientifique a généralement reconnu leurs résultats préliminaires comme vraiment prometteurs. Par exemple, des études sur des personnes atteintes de maladies terminales ont découvert que les rencontres mystiques induites par la psilocybine produisaient des améliorations plus fortes et plus durables des symptômes de troubles dépressifs et d’anxiété des patients que les traitements traditionnels. Hallucinogène, substance qui produit des résultats mentaux qui ont tendance à être associés à des phénomènes comme des objectifs ou une exaltation spirituelle ou à des troubles mentaux comme la schizophrénie. Les hallucinogènes créent des modifications dans la perception, la croyance et la sensation, qui vont des distorsions des éléments détectés (illusions) à la détection d’objets dans lesquels aucun n’existe réellement (hallucinations). Les hallucinogènes augmentent les impulsions sensorielles, mais cela est souvent associé à une perte de contrôle de ce qui est exactement qualifié. Les médicaments psychopharmacologiques qui ont suscité un large intérêt et des controverses sont ceux qui produisent des aberrations notées dans le comportement ou la perception. L’un des plus répandus est le diéthylamide à acidité D-lysergique, ou LSD-25, qui était à l’origine dérivé de l’ergot (Claviceps purpurea), un champignon du seigle et du blé ; la mescaline, principe actif du cactus peyotl (Lophophora williamsii), qui se développe dans le sud-ouest des États-Unis et au Mexique ; et la psilocybine et la psilocine, qui proviennent de certains champignons frais. D’autres hallucinogènes comprennent la bufoténine, initialement éloignée de la peau des crapauds; l’harmine, issue des téguments de la plante du Centre-Est et de la Méditerranée ; et les composés artificiels méthylènedioxyamphétamine (MDA), méthylènedioxyméthamphétamine (MDMA) et phencyclidine (PCP). Le tétrahydrocannabinol (THC), le composant actif du cannabis ou de la marijuana, extrait des feuilles et des sommets de la végétation du genre Cannabis, est également parfois considéré comme un hallucinogène. Traditionnellement, les sociétés indigènes de l’hémisphère occidental utilisaient une végétation contenant des éléments psychédéliques. Les champignons hallucinogènes du Mexique étaient considérés comme sacrés et étaient connus sous le nom de « chair de dieu » par les Aztèques, et tout au long du XIXe siècle par les Apaches Mescalero du sud-ouest de l’U. S. appliqué un rite peyotl qui a été adopté par de nombreuses tribus des Plaines. Le peyotisme a finalement fusionné avec le christianisme, et la Native United States Church a été créée en 1918 pour protéger le peyotisme en tant que forme de culte. L’intérêt scientifique pour les hallucinogènes s’est développé lentement. La mescaline fut finalement éloignée du principe actif du peyotl en 1896. Ce n’est qu’en 1943, lorsque le chimiste suisse Albert Hofmann ingéra accidentellement un plan artificiel de LSD et connut ses effets psychédéliques, que la recherche d’une substance naturelle responsable de la schizophrénie se généralisa. Gordon Wasson, un banquier et mycologue new-yorkais, connu pour avoir prêté attention aux pouvoirs des champignons frais mexicains en 1953, ainsi que le principe actif a été rapidement découvert comme étant la psilocybine.